Peter Donnelly: How stats fool juries

Peter Donnelly démontre comment les statistiques peuvent tromper les jurés

243,959 views

2007-01-12 ・ TED


New videos

Peter Donnelly: How stats fool juries

Peter Donnelly démontre comment les statistiques peuvent tromper les jurés

243,959 views ・ 2007-01-12

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Emmanuel Cohen Relecteur: Elisabeth Buffard
00:25
As other speakers have said, it's a rather daunting experience --
0
25000
2000
Comme d'autres conférenciers l'ont dit, c'est plutôt intimidant --
00:27
a particularly daunting experience -- to be speaking in front of this audience.
1
27000
3000
particulièrement intimidant -- de parler devant vous.
00:30
But unlike the other speakers, I'm not going to tell you about
2
30000
3000
Mais contrairement à d'autres, je ne vous parlerai pas
00:33
the mysteries of the universe, or the wonders of evolution,
3
33000
2000
des mystères de l'univers, des merveilles de l'évolution,
00:35
or the really clever, innovative ways people are attacking
4
35000
4000
ou des manières intelligentes et innovantes de s'attaquer
00:39
the major inequalities in our world.
5
39000
2000
aux grandes inégalités de notre monde.
00:41
Or even the challenges of nation-states in the modern global economy.
6
41000
5000
Ni même des défis des états-nations dans l'économie mondiale moderne.
00:46
My brief, as you've just heard, is to tell you about statistics --
7
46000
4000
Mon exposé, comme on vous l'a annoncé, parle de statistiques --
00:50
and, to be more precise, to tell you some exciting things about statistics.
8
50000
3000
et, pour être plus précis, d'aspects vraiment passionnants desstatistiques .
00:53
And that's --
9
53000
1000
Et c'est --
00:54
(Laughter)
10
54000
1000
(Rires)
00:55
-- that's rather more challenging
11
55000
2000
-- c'est plus un défi pour moi
00:57
than all the speakers before me and all the ones coming after me.
12
57000
2000
que pour tous les autres conférenciers avant et après moi.
00:59
(Laughter)
13
59000
1000
(Rires)
01:01
One of my senior colleagues told me, when I was a youngster in this profession,
14
61000
5000
Un de mes aînés m'a dit, quand je débutais dans ce métier,
01:06
rather proudly, that statisticians were people who liked figures
15
66000
4000
plutôt fièrement, que les statisticiens étaient des gens qui aimaient les chiffres
01:10
but didn't have the personality skills to become accountants.
16
70000
3000
mais n'avaient pas la personnalité requise pour devenir comptables.
01:13
(Laughter)
17
73000
2000
(Rires)
01:15
And there's another in-joke among statisticians, and that's,
18
75000
3000
Il y a une autre blague que les statisticiens font à propos d'eux-mêmes,
01:18
"How do you tell the introverted statistician from the extroverted statistician?"
19
78000
3000
"Quelle est la différence entre un statisticien introverti et un statisticien extraverti ?"
01:21
To which the answer is,
20
81000
2000
Et la réponse est,
01:23
"The extroverted statistician's the one who looks at the other person's shoes."
21
83000
5000
"L'extraverti est celui qui regarde les chaussures de l'autre."
01:28
(Laughter)
22
88000
3000
(Rires)
01:31
But I want to tell you something useful -- and here it is, so concentrate now.
23
91000
5000
Mais je veux vous parler de quelque chose d'utile -- concentrez-vous.
01:36
This evening, there's a reception in the University's Museum of Natural History.
24
96000
3000
Ce soir, il y a une réception au musée d'histoire naturelle de l'université.
01:39
And it's a wonderful setting, as I hope you'll find,
25
99000
2000
Le cadre est magnifique, j'espère que vous en conviendrez,
01:41
and a great icon to the best of the Victorian tradition.
26
101000
5000
et il est très représentatif du meilleur de la tradition victorienne.
01:46
It's very unlikely -- in this special setting, and this collection of people --
27
106000
5000
Dans ce décor magnifique, avec tous ces gens réunis -- c'est peu probable
01:51
but you might just find yourself talking to someone you'd rather wish that you weren't.
28
111000
3000
mais vous pourriez vous vous retrouver dans une conversation et vouloir en sortir.
01:54
So here's what you do.
29
114000
2000
Dans ce cas voici ce que vous faites.
01:56
When they say to you, "What do you do?" -- you say, "I'm a statistician."
30
116000
4000
Quand on vous demande, "Que faites-vous dans la vie ?" -- vous dites, "Je suis statisticien."
02:00
(Laughter)
31
120000
1000
(Rires)
02:01
Well, except they've been pre-warned now, and they'll know you're making it up.
32
121000
4000
Sauf que maintenant ils sont prévenus, et qu'ils sauront que vous mentez.
02:05
And then one of two things will happen.
33
125000
2000
Alors il peut se passer deux choses.
02:07
They'll either discover their long-lost cousin in the other corner of the room
34
127000
2000
Soit ils vont se trouver un lointain cousin à l'autre bout de la salle
02:09
and run over and talk to them.
35
129000
2000
et courir pour aller lui parler.
02:11
Or they'll suddenly become parched and/or hungry -- and often both --
36
131000
3000
Soit ils vont soudain avoir très soif ou faim -- et souvent les deux --
02:14
and sprint off for a drink and some food.
37
134000
2000
et filer se servir à boire à ou manger.
02:16
And you'll be left in peace to talk to the person you really want to talk to.
38
136000
4000
Et vous pourrez tranquillement parler avec qui vous voulez.
02:20
It's one of the challenges in our profession to try and explain what we do.
39
140000
3000
C'est un des défis de notre profession d'essayer d'expliquer ce que nous faisons.
02:23
We're not top on people's lists for dinner party guests and conversations and so on.
40
143000
5000
Nous ne sommes pas les meilleurs convives dans les dîners en ville et les conversations mondaines...
02:28
And it's something I've never really found a good way of doing.
41
148000
2000
Et je ne suis pas vraiment doué pour cela.
02:30
But my wife -- who was then my girlfriend --
42
150000
3000
Mais ma femme -- ma petite amie alors --
02:33
managed it much better than I've ever been able to.
43
153000
3000
le faisait beaucoup mieux que moi.
02:36
Many years ago, when we first started going out, she was working for the BBC in Britain,
44
156000
3000
Il y a longtemps, quand nous nous sommes rencontrés, elle travaillait pour la BBC en Grande Bretagne,
02:39
and I was, at that stage, working in America.
45
159000
2000
et je travaillais, à ce moment-là, en Amérique.
02:41
I was coming back to visit her.
46
161000
2000
J'étais de retour pour la voir.
02:43
She told this to one of her colleagues, who said, "Well, what does your boyfriend do?"
47
163000
6000
Elle l'a dit à une de ses collèges, qui a demandé "Et que fait-il dans la vie ?"
02:49
Sarah thought quite hard about the things I'd explained --
48
169000
2000
Sarah s'est mise à réfléchir à ce que je lui avais raconté --
02:51
and she concentrated, in those days, on listening.
49
171000
4000
et elle faisait l'effort d'écouter, à cette époque.
02:55
(Laughter)
50
175000
2000
(Rires)
02:58
Don't tell her I said that.
51
178000
2000
Ne lui dites pas que j'ai dit ça.
03:00
And she was thinking about the work I did developing mathematical models
52
180000
4000
Et elle pensait à mon travail sur la conception de modèles mathématiques
03:04
for understanding evolution and modern genetics.
53
184000
3000
pour comprendre l'évolution et la génétique moderne.
03:07
So when her colleague said, "What does he do?"
54
187000
3000
Alors quand son collègue lui a dit "Que fait-il?"
03:10
She paused and said, "He models things."
55
190000
4000
Elle a hésité et a dit, "Il fait du design"
03:14
(Laughter)
56
194000
1000
(Rires)
03:15
Well, her colleague suddenly got much more interested than I had any right to expect
57
195000
4000
Alors sa collègue s'est sentie vivement intéressée, étrangement,
03:19
and went on and said, "What does he model?"
58
199000
3000
et elle a dit, "Et que fait-il comme design ?"
03:22
Well, Sarah thought a little bit more about my work and said, "Genes."
59
202000
3000
Alors Sarah a réfléchi un peu plus et a dit, "des jeans" (ndt gènes)
03:25
(Laughter)
60
205000
4000
(Rires)
03:29
"He models genes."
61
209000
2000
"Il design des jeans." (des gènes)
03:31
That is my first love, and that's what I'll tell you a little bit about.
62
211000
4000
C'est mon premier amour, je n'en dirai pas plus.
03:35
What I want to do more generally is to get you thinking about
63
215000
4000
Plus généralement je voudrais que vous pensiez
03:39
the place of uncertainty and randomness and chance in our world,
64
219000
3000
au rôle de l'incertain, de l'aléatoire et du hasard dans notre monde,
03:42
and how we react to that, and how well we do or don't think about it.
65
222000
5000
comment nous y réagissons, et comment nous voyons les choses.
03:47
So you've had a pretty easy time up till now --
66
227000
2000
Bon. Ca a été plutôt facile pour vous jusqu'ici --
03:49
a few laughs, and all that kind of thing -- in the talks to date.
67
229000
2000
vous avez ri, etc -- dans les conférences jusqu'à celle-ci.
03:51
You've got to think, and I'm going to ask you some questions.
68
231000
3000
Vous allez devoir réfléchir, et je vais vous poser des questions.
03:54
So here's the scene for the first question I'm going to ask you.
69
234000
2000
Pour ma première question, imaginez la situation suivante.
03:56
Can you imagine tossing a coin successively?
70
236000
3000
Si vous lancez une pièce plusieurs fois d'affilée,
03:59
And for some reason -- which shall remain rather vague --
71
239000
3000
Pour une raison donnée -- que je n'expliquerai pas pour le moment --
04:02
we're interested in a particular pattern.
72
242000
2000
nous nous intéressons à un séquence particulière.
04:04
Here's one -- a head, followed by a tail, followed by a tail.
73
244000
3000
En voici une -- face, suivi de pile, suivi de pile.
04:07
So suppose we toss a coin repeatedly.
74
247000
3000
Supposez donc que nous lancions une pièce plusieurs fois de suite.
04:10
Then the pattern, head-tail-tail, that we've suddenly become fixated with happens here.
75
250000
5000
La séquence, face-pile-pile, qui nous tient à coeur, se produit.
04:15
And you can count: one, two, three, four, five, six, seven, eight, nine, 10 --
76
255000
4000
Si l'on compte : un, deux, trois, quatre, cinq, six, sept, huit, neuf, dix --
04:19
it happens after the 10th toss.
77
259000
2000
elle se produit après le 10e lancer.
04:21
So you might think there are more interesting things to do, but humor me for the moment.
78
261000
3000
Vous pouvez penser qu'il y a des choses plus intéressantes à faire, mais laissez moi poursuivre.
04:24
Imagine this half of the audience each get out coins, and they toss them
79
264000
4000
Imaginez que cette moitié d'entre vous a des pièces, et les lance
04:28
until they first see the pattern head-tail-tail.
80
268000
3000
jusqu'à voir la séquence face-pile-pile.
04:31
The first time they do it, maybe it happens after the 10th toss, as here.
81
271000
2000
La première fois, ça se passera peut-être après le 10e lancer, comme ici.
04:33
The second time, maybe it's after the fourth toss.
82
273000
2000
La seconde fois, ce sera peut-être après le 4e lancer.
04:35
The next time, after the 15th toss.
83
275000
2000
La fois suivante, après le 15e.
04:37
So you do that lots and lots of times, and you average those numbers.
84
277000
3000
Vous relancez de nombreuses fois, et vous calculez la moyenne de ces chiffres.
04:40
That's what I want this side to think about.
85
280000
3000
Je veux que ce côté de la salle y réfléchisse.
04:43
The other half of the audience doesn't like head-tail-tail --
86
283000
2000
L'autre moitié de l'assistance, elle, n'aime pas face-pile-pile --
04:45
they think, for deep cultural reasons, that's boring --
87
285000
3000
ils trouvent ça ennuyeux, pour d'obscures raisons culturelles --
04:48
and they're much more interested in a different pattern -- head-tail-head.
88
288000
3000
et ils sont plus intéressés par une séquence différente -- face-pile-face.
04:51
So, on this side, you get out your coins, and you toss and toss and toss.
89
291000
3000
Donc, de ce côté; vous prenez vos pièces, et vous les lancez et relancez.
04:54
And you count the number of times until the pattern head-tail-head appears
90
294000
3000
Et vous comptez le nombre de lancers jusqu'à la séquence face-pile-face
04:57
and you average them. OK?
91
297000
3000
et vous faites la moyenne. OK ?
05:00
So on this side, you've got a number --
92
300000
2000
De ce côté-ci, vous obtenez un nombre --
05:02
you've done it lots of times, so you get it accurately --
93
302000
2000
Vous l'avez beaucoup fait, donc vous obtenez un nombre exact --
05:04
which is the average number of tosses until head-tail-tail.
94
304000
3000
le nombre moyen de lancers pour obtenir face-pile-pile.
05:07
On this side, you've got a number -- the average number of tosses until head-tail-head.
95
307000
4000
De ce côté-là -- le nombre moyen de lancers jusqu'à face-pile-face.
05:11
So here's a deep mathematical fact --
96
311000
2000
C'est une règle mathématique fondamentale --
05:13
if you've got two numbers, one of three things must be true.
97
313000
3000
si vous avez deux nombres, une des 3 choses suivantes est vraie.
05:16
Either they're the same, or this one's bigger than this one,
98
316000
3000
Ou bien ils sont égaux, ou bien l'un est plus grand que l'autre,
05:19
or this one's bigger than that one.
99
319000
1000
ou l'autre plus grand que l'un.
05:20
So what's going on here?
100
320000
3000
Que se passe-t-il dans notre cas ?
05:23
So you've all got to think about this, and you've all got to vote --
101
323000
2000
Vous devez tous y penser, et vous allez devoir voter --
05:25
and we're not moving on.
102
325000
1000
nous en restons là pour le moment.
05:26
And I don't want to end up in the two-minute silence
103
326000
2000
Je ne veux pas vous laisser trop de temps
05:28
to give you more time to think about it, until everyone's expressed a view. OK.
104
328000
4000
pour y réfléchir, jusqu'à ce que tout le monde ait voté. OK.
05:32
So what you want to do is compare the average number of tosses until we first see
105
332000
4000
Vous comparez le nombre de lancers moyen jusqu'à la première apparition
05:36
head-tail-head with the average number of tosses until we first see head-tail-tail.
106
336000
4000
de face-pile-face avec le nombre moyen de lancers jusqu'à face-pile-pile.
05:41
Who thinks that A is true --
107
341000
2000
Qui pense que A est vrai --
05:43
that, on average, it'll take longer to see head-tail-head than head-tail-tail?
108
343000
4000
qu'en moyenne, ce sera plus long pour face-pile-face que pour face-pile-pile ?
05:47
Who thinks that B is true -- that on average, they're the same?
109
347000
3000
Qui pense que B est vrai -- qu'en moyenne, ils sont égaux ?
05:51
Who thinks that C is true -- that, on average, it'll take less time
110
351000
2000
Qui pense que C est vrai -- qu'en moyenne, il faudra moins de temps
05:53
to see head-tail-head than head-tail-tail?
111
353000
3000
pour face-pile-face que pour face-pile-pile ?
05:57
OK, who hasn't voted yet? Because that's really naughty -- I said you had to.
112
357000
3000
OK, qui n'a pas voté ? Parce que c'est mal -- on a dit que vous deviez le faire.
06:00
(Laughter)
113
360000
1000
(Rires)
06:02
OK. So most people think B is true.
114
362000
3000
OK. Donc la majorité pense que B est vrai.
06:05
And you might be relieved to know even rather distinguished mathematicians think that.
115
365000
3000
Et vous serez rassurés de savoir que même de distingués mathématiciens le pensent aussi.
06:08
It's not. A is true here.
116
368000
4000
C'est faux. C'est A qui est vrai.
06:12
It takes longer, on average.
117
372000
2000
C'est plus long, en moyenne.
06:14
In fact, the average number of tosses till head-tail-head is 10
118
374000
2000
En fait, la moyenne du nombre de lancers nécessaires pour face-pile-face est 10
06:16
and the average number of tosses until head-tail-tail is eight.
119
376000
5000
et la moyenne pour face-pile-pile est 8.
06:21
How could that be?
120
381000
2000
Comment est-ce possible ?
06:24
Anything different about the two patterns?
121
384000
3000
Les deux séquences sont-elles différentes ?
06:30
There is. Head-tail-head overlaps itself.
122
390000
5000
Elles le sont. Face-pile-face se "mord la queue".
06:35
If you went head-tail-head-tail-head, you can cunningly get two occurrences
123
395000
4000
Si vous avez face-pile-face-pile-face, vous obtenez d'un coup deux occurrences
06:39
of the pattern in only five tosses.
124
399000
3000
de la séquence en seulement cinq lancers.
06:42
You can't do that with head-tail-tail.
125
402000
2000
Ce n'est pas possible avec face-pile-pile.
06:44
That turns out to be important.
126
404000
2000
Ceci s'avère important.
06:46
There are two ways of thinking about this.
127
406000
2000
Il y a deux manières de voir.
06:48
I'll give you one of them.
128
408000
2000
Je vais vous en donner une.
06:50
So imagine -- let's suppose we're doing it.
129
410000
2000
Supposons que nous sommes en train de lancer.
06:52
On this side -- remember, you're excited about head-tail-tail;
130
412000
2000
De ce côté -- rappelez-vous, vous êtes enthousiastes pour face-pile-pile,
06:54
you're excited about head-tail-head.
131
414000
2000
et vous, pour face-pile-face.
06:56
We start tossing a coin, and we get a head --
132
416000
3000
On lancer, et on obtient face --
06:59
and you start sitting on the edge of your seat
133
419000
1000
vous commencez à vous tortiller sur votre fauteuil
07:00
because something great and wonderful, or awesome, might be about to happen.
134
420000
5000
car quelque chose de grand et de merveilleux, est sur le point de se produire.
07:05
The next toss is a tail -- you get really excited.
135
425000
2000
Le second lancer donne un pile -- et vous vous emballez.
07:07
The champagne's on ice just next to you; you've got the glasses chilled to celebrate.
136
427000
4000
Le champagne glacé est juste à côté de vous, vous avez refroidi les flûtes et vous vous préparez fêter ça.
07:11
You're waiting with bated breath for the final toss.
137
431000
2000
Vous attendez, haletant, le lancer final.
07:13
And if it comes down a head, that's great.
138
433000
2000
Et s'il sort un face, c'est super.
07:15
You're done, and you celebrate.
139
435000
2000
Vous êtes contents, et vous fêtez ça.
07:17
If it's a tail -- well, rather disappointedly, you put the glasses away
140
437000
2000
Si c'est un pile -- bon, un peu déçus, vous rangez les flûtes
07:19
and put the champagne back.
141
439000
2000
et le champagne.
07:21
And you keep tossing, to wait for the next head, to get excited.
142
441000
3000
Et vous continuez vos lancers, vous attendez la sortie du prochain face pour vous emballer de nouveau.
07:25
On this side, there's a different experience.
143
445000
2000
De ce côté-là, vous vivez une expérience différente.
07:27
It's the same for the first two parts of the sequence.
144
447000
3000
C'est la même chose pour les deux premières parties de la séquence.
07:30
You're a little bit excited with the first head --
145
450000
2000
Vous êtes un peu excités par le premier face --
07:32
you get rather more excited with the next tail.
146
452000
2000
vous êtes encore plus excités avec le pile suivant.
07:34
Then you toss the coin.
147
454000
2000
Et vous relancez.
07:36
If it's a tail, you crack open the champagne.
148
456000
3000
Si c'est un pile, vous sabrez le champagne.
07:39
If it's a head you're disappointed,
149
459000
2000
Si c'est un face vous êtes déçus,
07:41
but you're still a third of the way to your pattern again.
150
461000
3000
mais vous êtes de nouveau au tiers de votre motif.
07:44
And that's an informal way of presenting it -- that's why there's a difference.
151
464000
4000
C'est une manière informelle de présenter les choses -- mais c'est pour cela qu'il y a une différence.
07:48
Another way of thinking about it --
152
468000
2000
Une autre manière de voir --
07:50
if we tossed a coin eight million times,
153
470000
2000
si vous avez lancé huit millions de fois,
07:52
then we'd expect a million head-tail-heads
154
472000
2000
alors nous devrions avoir un million de face-pile-face,
07:54
and a million head-tail-tails -- but the head-tail-heads could occur in clumps.
155
474000
7000
et un million de face-pile-pile -- mais face-pile-face pourrait apparaître en grappes.
08:01
So if you want to put a million things down amongst eight million positions
156
481000
2000
Donc sur huit millions de positions, si vous voulez en placer un million
08:03
and you can have some of them overlapping, the clumps will be further apart.
157
483000
5000
et que certains d'entre eux se recouvrent, les paquets seront plus séparés.
08:08
It's another way of getting the intuition.
158
488000
2000
C'est une autre façon de rendre les choses intuitives.
08:10
What's the point I want to make?
159
490000
2000
Qu'est-ce que je veux dire par là ?
08:12
It's a very, very simple example, an easily stated question in probability,
160
492000
4000
Il s'agit d'un exemple très, très simple, une question de probabilité facile,
08:16
which every -- you're in good company -- everybody gets wrong.
161
496000
3000
sur laquelle tout le monde se trompe -- et nous sommes en bonne compagnie.
08:19
This is my little diversion into my real passion, which is genetics.
162
499000
4000
Ceci est une petite digression pour en venir à ma véritable passion, la génétique.
08:23
There's a connection between head-tail-heads and head-tail-tails in genetics,
163
503000
3000
Il y a un lien entre face-pile-face et face-pile-pile en génétique,
08:26
and it's the following.
164
506000
3000
et c'est le suivant.
08:29
When you toss a coin, you get a sequence of heads and tails.
165
509000
3000
Quand vous lancez une pièce, vous obtenez une séquence de faces et de piles.
08:32
When you look at DNA, there's a sequence of not two things -- heads and tails --
166
512000
3000
Dans l'ADN il y a une séquence de non pas deux choses -- face et pile --
08:35
but four letters -- As, Gs, Cs and Ts.
167
515000
3000
mais de quatre lettres -- A, G, C et T.
08:38
And there are little chemical scissors, called restriction enzymes
168
518000
3000
Il y a de petits ciseaux chimiques, appelés enzymes de restriction,
08:41
which cut DNA whenever they see particular patterns.
169
521000
2000
qui coupent l'ADN à chaque fois qu'ils tombent sur une séquence particulière.
08:43
And they're an enormously useful tool in modern molecular biology.
170
523000
4000
C'est un outil extrêmement utile en biologie moléculaire moderne.
08:48
And instead of asking the question, "How long until I see a head-tail-head?" --
171
528000
3000
Au lieu de demander, "Au bout de combien de temps obtient-on un face-pile-face ?" --
08:51
you can ask, "How big will the chunks be when I use a restriction enzyme
172
531000
3000
vous pouvez demander, "De quelle taille sont les paquets si j'utilise une enzyme de restriction
08:54
which cuts whenever it sees G-A-A-G, for example?
173
534000
4000
qui coupe quand elle voit G-A-A-G, par exemple,
08:58
How long will those chunks be?"
174
538000
2000
De quelle taille sont ces paquets ?"
09:00
That's a rather trivial connection between probability and genetics.
175
540000
5000
C'est un lien des plus courants entre probabilité et génétique.
09:05
There's a much deeper connection, which I don't have time to go into
176
545000
3000
Il y a un lien plus profond encore, dont je n'ai pas eu le temps de parler
09:08
and that is that modern genetics is a really exciting area of science.
177
548000
3000
et qui fait de la génétique moderne une science vraiment passionnante.
09:11
And we'll hear some talks later in the conference specifically about that.
178
551000
4000
Nous entendrons d'autres conférences à ce sujet.
09:15
But it turns out that unlocking the secrets in the information generated by modern
179
555000
4000
Il s'avère que, pour comprendre les secrets que recèle les données générées par les technologies
09:19
experimental technologies, a key part of that has to do with fairly sophisticated --
180
559000
5000
expérimentales modernes, une des clés provient de techniques plutôt sophistiquées --
09:24
you'll be relieved to know that I do something useful in my day job,
181
564000
3000
rassurez-vous, je fais quelque chose d'utile dans mon travail,
09:27
rather more sophisticated than the head-tail-head story --
182
567000
2000
beaucoup plus sophistiquées que l'histoire de face-pile-face --
09:29
but quite sophisticated computer modelings and mathematical modelings
183
569000
4000
la modélisation informatique et mathématique
09:33
and modern statistical techniques.
184
573000
2000
et des techniques statistiques modernes.
09:35
And I will give you two little snippets -- two examples --
185
575000
3000
Je vais vous donner deux aperçus-- deux exemples --
09:38
of projects we're involved in in my group in Oxford,
186
578000
3000
de projets dont mon groupe à Oxford fait partie,
09:41
both of which I think are rather exciting.
187
581000
2000
qui sont tous les deux assez passionnants.
09:43
You know about the Human Genome Project.
188
583000
2000
Vous connaissez le projet Génome Humain.
09:45
That was a project which aimed to read one copy of the human genome.
189
585000
4000
Ce projet avait pour but de séquencer un génome humain complet.
09:51
The natural thing to do after you've done that --
190
591000
2000
Ce qui vient naturellement après ça --
09:53
and that's what this project, the International HapMap Project,
191
593000
2000
c'est le projet international HapMap,
09:55
which is a collaboration between labs in five or six different countries.
192
595000
5000
qui est une collaboration de laboratoires de cinq ou six pays différents.
10:00
Think of the Human Genome Project as learning what we've got in common,
193
600000
4000
Pensez au projet Génome Humain comme une manière d'apprendre ce que nous avons en commun
10:04
and the HapMap Project is trying to understand
194
604000
2000
et au projet HapMap comme une façon de comprendre
10:06
where there are differences between different people.
195
606000
2000
les différences entre des gens différents.
10:08
Why do we care about that?
196
608000
2000
Pourquoi se préoccuper de cela ?
10:10
Well, there are lots of reasons.
197
610000
2000
Et bien, il y a de nombreuses raisons.
10:12
The most pressing one is that we want to understand how some differences
198
612000
4000
La plus pressante est de comprendre comment ces différences
10:16
make some people susceptible to one disease -- type-2 diabetes, for example --
199
616000
4000
prédisposent certaines personnes à une maladie donnée -- disons, un diabète de type 2 --
10:20
and other differences make people more susceptible to heart disease,
200
620000
5000
et que d'autres différences prédisposent d'autres à des maladies du coeur,
10:25
or stroke, or autism and so on.
201
625000
2000
ou à des accidents vasculaires cérébraux, ou à l'autisme etc.
10:27
That's one big project.
202
627000
2000
C'est un grand projet.
10:29
There's a second big project,
203
629000
2000
Il y a un second grand projet.
10:31
recently funded by the Wellcome Trust in this country,
204
631000
2000
récemment financé par le Wellcome Trust dans ce pays,
10:33
involving very large studies --
205
633000
2000
qui implique de vastes études --
10:35
thousands of individuals, with each of eight different diseases,
206
635000
3000
des milliers d'individus, et huit maladies différentes,
10:38
common diseases like type-1 and type-2 diabetes, and coronary heart disease,
207
638000
4000
des maladies courantes comme les diabètes de type 1 et 2, l'infarctus du myocarde,
10:42
bipolar disease and so on -- to try and understand the genetics.
208
642000
4000
les maladies bipolaires etc -- pour essayer de comprendre leur génétique.
10:46
To try and understand what it is about genetic differences that causes the diseases.
209
646000
3000
Essayer de comprendre ce qui, dans les différences génétiques cause ces maladies.
10:49
Why do we want to do that?
210
649000
2000
Pourquoi voulons-nous faire cela ?
10:51
Because we understand very little about most human diseases.
211
651000
3000
Parce que nous connaissons très peu la plupart des maladies humaines.
10:54
We don't know what causes them.
212
654000
2000
Nous ne connaissons pas leurs causes.
10:56
And if we can get in at the bottom and understand the genetics,
213
656000
2000
Et si nous pouvons approfondir et comprendre leur génétique,
10:58
we'll have a window on the way the disease works,
214
658000
3000
nous aurons une accès à leur manière de fonctionner.
11:01
and a whole new way about thinking about disease therapies
215
661000
2000
Une toute nouvelle façon de concevoir les thérapies
11:03
and preventative treatment and so on.
216
663000
3000
et les traitements préventifs etc.
11:06
So that's, as I said, the little diversion on my main love.
217
666000
3000
C'était, comme je l'ai dit, une petite digression à ma passion principale.
11:09
Back to some of the more mundane issues of thinking about uncertainty.
218
669000
5000
Revenons à des problèmes plus prosaïques sur la manière de penser l'incertain.
11:14
Here's another quiz for you --
219
674000
2000
Voici un autre quizz --
11:16
now suppose we've got a test for a disease
220
676000
2000
supposez que nous ayons un test pour une maladie
11:18
which isn't infallible, but it's pretty good.
221
678000
2000
qui n'est pas infaillible, mais plutôt bon.
11:20
It gets it right 99 percent of the time.
222
680000
3000
Il est juste 99 pour cent du temps.
11:23
And I take one of you, or I take someone off the street,
223
683000
3000
Je choisis l'un de vous, ou quelqu'un dans la rue,
11:26
and I test them for the disease in question.
224
686000
2000
et je fais le test pour cette maladie.
11:28
Let's suppose there's a test for HIV -- the virus that causes AIDS --
225
688000
4000
Supposons qu'il existe un test pour le VIH -- le virus responsable du SIDA --
11:32
and the test says the person has the disease.
226
692000
3000
et que le test soit positif pour cette personne.
11:35
What's the chance that they do?
227
695000
3000
Quel est le pourcentage de chance que la personne soit effectivement malade ?
11:38
The test gets it right 99 percent of the time.
228
698000
2000
Le test est bon 99 pour cent des fois.
11:40
So a natural answer is 99 percent.
229
700000
4000
Donc la réponse naturelle est 99 pour cent.
11:44
Who likes that answer?
230
704000
2000
Qui aime cette réponse ?
11:46
Come on -- everyone's got to get involved.
231
706000
1000
Allez -- tout le monde est concerné.
11:47
Don't think you don't trust me anymore.
232
707000
2000
Oubliez que vous ne me faites plus confiance.
11:49
(Laughter)
233
709000
1000
(Rires)
11:50
Well, you're right to be a bit skeptical, because that's not the answer.
234
710000
3000
Bien, vous avez raison d'être un peu sceptiques, parce que ce n'est pas la bonne réponse.
11:53
That's what you might think.
235
713000
2000
C'est ce que vous pourriez croire.
11:55
It's not the answer, and it's not because it's only part of the story.
236
715000
3000
Ce n'est pas la réponse, parce qu'il manque des éléments.
11:58
It actually depends on how common or how rare the disease is.
237
718000
3000
La réponse dépend en fait de la rareté de la maladie.
12:01
So let me try and illustrate that.
238
721000
2000
Je vais vous donner un exemple.
12:03
Here's a little caricature of a million individuals.
239
723000
4000
Voici une représentation d'un million d'individus.
12:07
So let's think about a disease that affects --
240
727000
3000
Prenons une maladie qui affecte --
12:10
it's pretty rare, it affects one person in 10,000.
241
730000
2000
c'est une maladie rare, elle affecte une personne sur 10 000.
12:12
Amongst these million individuals, most of them are healthy
242
732000
3000
Parmi ce million d'individus, la plupart sont en bonne santé
12:15
and some of them will have the disease.
243
735000
2000
et certains ont la maladie.
12:17
And in fact, if this is the prevalence of the disease,
244
737000
3000
Et, si ceci est la prévalence de la maladie,
12:20
about 100 will have the disease and the rest won't.
245
740000
3000
100 l'auront et le reste non.
12:23
So now suppose we test them all.
246
743000
2000
Maintenant, supposez qu'on teste tout le monde.
12:25
What happens?
247
745000
2000
Que se passe-t-il ?
12:27
Well, amongst the 100 who do have the disease,
248
747000
2000
Et bien, sur les 100 qui ont la maladie,
12:29
the test will get it right 99 percent of the time, and 99 will test positive.
249
749000
5000
le test aura la bonne réponse 99 fois sur cent, et 99 seront testés positifs.
12:34
Amongst all these other people who don't have the disease,
250
754000
2000
Sur tous les autres, qui sont en bonne santé,
12:36
the test will get it right 99 percent of the time.
251
756000
3000
le test répondra juste à 99 pour cent.
12:39
It'll only get it wrong one percent of the time.
252
759000
2000
Il sera faux seulement une fois sur cent.
12:41
But there are so many of them that there'll be an enormous number of false positives.
253
761000
4000
Mais il y a tellement de gens qu'il y aura un grand nombre de faux positifs.
12:45
Put that another way --
254
765000
2000
Dit autrement --
12:47
of all of them who test positive -- so here they are, the individuals involved --
255
767000
5000
sur tous ceux qui sont testés positifs -- voici les individus concernés --
12:52
less than one in 100 actually have the disease.
256
772000
5000
moins d'un sur 100 a vraiment la maladie.
12:57
So even though we think the test is accurate, the important part of the story is
257
777000
4000
Donc même si nous considérons que le test est rigoureux, un élément important est
13:01
there's another bit of information we need.
258
781000
3000
qu'une partie de l'information est manquante.
13:04
Here's the key intuition.
259
784000
2000
Voici l'intuition essentielle.
13:07
What we have to do, once we know the test is positive,
260
787000
3000
Ce que nous devons faire, lorsque le test est positif
13:10
is to weigh up the plausibility, or the likelihood, of two competing explanations.
261
790000
6000
est de peser la plausibilité, ou la vraisemblance, de deux explications opposées.
13:16
Each of those explanations has a likely bit and an unlikely bit.
262
796000
3000
Chacune de ces explications est en partie vraisemblable et en partie peu vraisemblable.
13:19
One explanation is that the person doesn't have the disease --
263
799000
3000
Une explication est que la personne n'a pas la maladie --
13:22
that's overwhelmingly likely, if you pick someone at random --
264
802000
3000
ce qui est extrêmement probable, si vous prenez quelqu'un au hasard --
13:25
but the test gets it wrong, which is unlikely.
265
805000
3000
et que le test est faux, ce qui est peu probable.
13:29
The other explanation is that the person does have the disease -- that's unlikely --
266
809000
3000
L'autre explication est que la personne a la maladie -- c'est peu probable --
13:32
but the test gets it right, which is likely.
267
812000
3000
et que le test est juste, ce qui est probable.
13:35
And the number we end up with --
268
815000
2000
Et le nombre que nous obtenons --
13:37
that number which is a little bit less than one in 100 --
269
817000
3000
ce nombre est légèrement inférieur à 100 --
13:40
is to do with how likely one of those explanations is relative to the other.
270
820000
6000
dépend de la probabilité qu'une de ces explications est liée à l'autre.
13:46
Each of them taken together is unlikely.
271
826000
2000
Chacune des deux prises ensemble est improbable.
13:49
Here's a more topical example of exactly the same thing.
272
829000
3000
Voici un autre exemple pris dans l'actualité.
13:52
Those of you in Britain will know about what's become rather a celebrated case
273
832000
4000
Les britanniques ont entendu parler de ce cas devenu célèbre
13:56
of a woman called Sally Clark, who had two babies who died suddenly.
274
836000
5000
d'une femme nommée Sally Clark, dont les deux bébés sont morts soudainement.
14:01
And initially, it was thought that they died of what's known informally as "cot death,"
275
841000
4000
Initialement, on a pensé qu'ils étaient morts de ce que l'on appelle la mort subite du nourrisson
14:05
and more formally as "Sudden Infant Death Syndrome."
276
845000
3000
(familièrement en anglais : "mort du berceau")
14:08
For various reasons, she was later charged with murder.
277
848000
2000
Pour différentes raisons, on l'a plus tard accusée de meurtre.
14:10
And at the trial, her trial, a very distinguished pediatrician gave evidence
278
850000
4000
Et au procès, son procès, un pédiatre distingué a déclaré dans son témoignage
14:14
that the chance of two cot deaths, innocent deaths, in a family like hers --
279
854000
5000
que le pourcentage de chance d'avoir deux nourrissons morts du même syndrome, dans une famille comme la sienne --
14:19
which was professional and non-smoking -- was one in 73 million.
280
859000
6000
en activité et non fumeur -- était de 1 sur 73 millions.
14:26
To cut a long story short, she was convicted at the time.
281
866000
3000
Pour faire court, elle a été condamnée à l'époque.
14:29
Later, and fairly recently, acquitted on appeal -- in fact, on the second appeal.
282
869000
5000
Plus tard, assez récemment, elle a été acquittée en appel -- en fait, au second appel.
14:34
And just to set it in context, you can imagine how awful it is for someone
283
874000
4000
Pour replacer les choses dans leur contexte, imaginez l'épreuve pour quelqu'un
14:38
to have lost one child, and then two, if they're innocent,
284
878000
3000
de perdre un enfant, et un deuxième, et tout en étant innocent,
14:41
to be convicted of murdering them.
285
881000
2000
d'être reconnu coupable de meurtre.
14:43
To be put through the stress of the trial, convicted of murdering them --
286
883000
2000
De subir le stress du procès, d'être condamné pour meurtre --
14:45
and to spend time in a women's prison, where all the other prisoners
287
885000
3000
et d'être détenue dans une prison pour femmes, où toutes les autres prisonnières
14:48
think you killed your children -- is a really awful thing to happen to someone.
288
888000
5000
pensent que vous avez tué vos enfants -- c'est vraiment horrible.
14:53
And it happened in large part here because the expert got the statistics
289
893000
5000
Et c'est arrivé en grande partie parce que l'expert s'est totalement fourvoyé
14:58
horribly wrong, in two different ways.
290
898000
3000
sur ses statistiques, et ce sur deux points.
15:01
So where did he get the one in 73 million number?
291
901000
4000
Alors d'où a-t-il sorti son chiffre de 73 millions ?
15:05
He looked at some research, which said the chance of one cot death in a family
292
905000
3000
Il a lu quelques publications de recherche, qui disaient que la chance d'une mort subite du nourrisson dans une famille
15:08
like Sally Clark's is about one in 8,500.
293
908000
5000
comme celle de Sally Clark est à peu près d'une sur huit mille cinq cent.
15:13
So he said, "I'll assume that if you have one cot death in a family,
294
913000
4000
Et il a dit, "Je suppose que si on a un nourrisson mort du syndrome dans une famille,
15:17
the chance of a second child dying from cot death aren't changed."
295
917000
4000
le pourcentage de chance d'avoir une second enfant mort sont inchangées."
15:21
So that's what statisticians would call an assumption of independence.
296
921000
3000
C'est ce que les statisticiens appelleraient une hypothèse d'indépendance.
15:24
It's like saying, "If you toss a coin and get a head the first time,
297
924000
2000
C'est la même chose de dire, "Si vous lancez une pièce et obtenez face la première fois,
15:26
that won't affect the chance of getting a head the second time."
298
926000
3000
cela n'aura pas d'incidence sur vos chances d'avoir face la seconde fois."
15:29
So if you toss a coin twice, the chance of getting a head twice are a half --
299
929000
5000
Alors si vous lancez une pièce deux fois de suite, la probabilité d'obtenir deux faces est un demi --
15:34
that's the chance the first time -- times a half -- the chance a second time.
300
934000
3000
soit la probabilité du premier lancer -- multiplié par un demi -- la probabilité du second lancer.
15:37
So he said, "Here,
301
937000
2000
Alors il a dit, "Supposons --
15:39
I'll assume that these events are independent.
302
939000
4000
Je suppose que ces évènements sont indépendants.
15:43
When you multiply 8,500 together twice,
303
943000
2000
Quand vous multipliez huit mille cinq cents par huit mille cinq cents,
15:45
you get about 73 million."
304
945000
2000
vous obtenez à peu près 73 millions."
15:47
And none of this was stated to the court as an assumption
305
947000
2000
Et aucune de ces hypothèses n'a été exposée au tribunal
15:49
or presented to the jury that way.
306
949000
2000
ou présentée au jury de cette façon.
15:52
Unfortunately here -- and, really, regrettably --
307
952000
3000
Malheureusement -- et vraiment, de manière regrettable --
15:55
first of all, in a situation like this you'd have to verify it empirically.
308
955000
4000
d'abord, dans une telle situation il faudrait effectuer des vérifications empiriques.
15:59
And secondly, it's palpably false.
309
959000
2000
Et ensuite, c'est évidemment faux.
16:02
There are lots and lots of things that we don't know about sudden infant deaths.
310
962000
5000
Il y a énormément de choses que nous ne savons pas sur la mort subite du nourrisson.
16:07
It might well be that there are environmental factors that we're not aware of,
311
967000
3000
Il se peut que certains facteurs environnementaux inconnus soient à l'oeuvre,
16:10
and it's pretty likely to be the case that there are
312
970000
2000
et il y a de fortes chances qu'il y ait
16:12
genetic factors we're not aware of.
313
972000
2000
des facteurs génétiques que nous ne connaissons pas.
16:14
So if a family suffers from one cot death, you'd put them in a high-risk group.
314
974000
3000
Donc si une famille est victime d'une mort d'un nourrisson, elle devient de fait partie d'un groupe à haut risque.
16:17
They've probably got these environmental risk factors
315
977000
2000
Ìls sont probablement exposés à des facteurs de risque environnemental
16:19
and/or genetic risk factors we don't know about.
316
979000
3000
et/ou à ces facteurs génétiques que nous ne connaissons pas.
16:22
And to argue, then, that the chance of a second death is as if you didn't know
317
982000
3000
Et de prétendre, alors, connaître les chances d'avoir un second décès comme si on ignorait ces informations
16:25
that information is really silly.
318
985000
3000
est vraiment idiot.
16:28
It's worse than silly -- it's really bad science.
319
988000
4000
C'est pire qu'idiot -- c'est vraiment de la très mauvaise science.
16:32
Nonetheless, that's how it was presented, and at trial nobody even argued it.
320
992000
5000
Néanmoins, c'est ainsi que ça a été présenté, et au procès personne n'a essayé de contester.
16:37
That's the first problem.
321
997000
2000
C'est le premier problème.
16:39
The second problem is, what does the number of one in 73 million mean?
322
999000
4000
Le second problème est, que veut dire le nombre de un sur 73 millions ?
16:43
So after Sally Clark was convicted --
323
1003000
2000
Après que Sally Clark a été reconnue coupable --
16:45
you can imagine, it made rather a splash in the press --
324
1005000
4000
imaginez, ça a vraiment fait les gros titres de la presse --
16:49
one of the journalists from one of Britain's more reputable newspapers wrote that
325
1009000
7000
un des journalistes de l'un des journaux les plus respectables de Grande Bretagne a écrit
16:56
what the expert had said was,
326
1016000
2000
que selon l'expert,
16:58
"The chance that she was innocent was one in 73 million."
327
1018000
5000
"Les chances qu'elle soit innocente était d'une sur 73 millions."
17:03
Now, that's a logical error.
328
1023000
2000
Ça, c'est une erreur de logique.
17:05
It's exactly the same logical error as the logical error of thinking that
329
1025000
3000
C'est exactement la même erreur de logique que de penser
17:08
after the disease test, which is 99 percent accurate,
330
1028000
2000
après le test de la maladie, qui est 99 fois sur cent juste,
17:10
the chance of having the disease is 99 percent.
331
1030000
4000
que la probabilité d'avoir la maladie est de 99 pour cent.
17:14
In the disease example, we had to bear in mind two things,
332
1034000
4000
Dans l'exemple du test, il fallait avoir deux choses en tête,
17:18
one of which was the possibility that the test got it right or not.
333
1038000
4000
l'une était la possibilité que le test se trompe ou pas.
17:22
And the other one was the chance, a priori, that the person had the disease or not.
334
1042000
4000
L'autre était la probabilité, a priori, qu'une personne soit malade.
17:26
It's exactly the same in this context.
335
1046000
3000
C'est exactement la même chose ici.
17:29
There are two things involved -- two parts to the explanation.
336
1049000
4000
Il y a deux phénomènes à l'oeuvre -- deux faces à l'explication.
17:33
We want to know how likely, or relatively how likely, two different explanations are.
337
1053000
4000
Nous voulons savoir la probabilité, ou la probabilité relative, de deux explications différentes.
17:37
One of them is that Sally Clark was innocent --
338
1057000
3000
L'une des deux est que Sally Clark était innocente --
17:40
which is, a priori, overwhelmingly likely --
339
1060000
2000
ce qui est, a priori, extrêmement probable --
17:42
most mothers don't kill their children.
340
1062000
3000
la plupart des mères ne tuent pas leur enfants.
17:45
And the second part of the explanation
341
1065000
2000
Et la seconde partie de l'explication
17:47
is that she suffered an incredibly unlikely event.
342
1067000
3000
est qu'elle a subi un évènement incroyablement improbable.
17:50
Not as unlikely as one in 73 million, but nonetheless rather unlikely.
343
1070000
4000
Pas aussi improbable que le suggère le un sur 73 millions, mais néanmoins assez improblable.
17:54
The other explanation is that she was guilty.
344
1074000
2000
L'autre explication est qu'elle est coupable,
17:56
Now, we probably think a priori that's unlikely.
345
1076000
2000
Nous pouvons penser a priori que c'est improbable.
17:58
And we certainly should think in the context of a criminal trial
346
1078000
3000
Et certes, nous devrions penser dans le contexte d'un procès criminel
18:01
that that's unlikely, because of the presumption of innocence.
347
1081000
3000
que c'est improbable, en raison de la présomption d'innocence.
18:04
And then if she were trying to kill the children, she succeeded.
348
1084000
4000
Mais si elle a cherché à tuer les enfants, elle a réussi.
18:08
So the chance that she's innocent isn't one in 73 million.
349
1088000
4000
Donc la probabilité qu'elle soit innocente n'est pas d'un sur 73 millions.
18:12
We don't know what it is.
350
1092000
2000
Nous ne savons pas ce qu'elle vaut.
18:14
It has to do with weighing up the strength of the other evidence against her
351
1094000
4000
Elle est liée à la pondération des preuves contre l'accusée
18:18
and the statistical evidence.
352
1098000
2000
et des résultats statistiques.
18:20
We know the children died.
353
1100000
2000
Nous savons que les enfants sont morts.
18:22
What matters is how likely or unlikely, relative to each other,
354
1102000
4000
Ce qui compte, c'est la probabilité ou l'improbabilité relative
18:26
the two explanations are.
355
1106000
2000
des deux explications.
18:28
And they're both implausible.
356
1108000
2000
Qui sont toutes deux improbables.
18:31
There's a situation where errors in statistics had really profound
357
1111000
4000
Il y a des situations dans lesquelles les erreurs de statistiques ont des conséquences
18:35
and really unfortunate consequences.
358
1115000
3000
profondes et vraiment funestes.
18:38
In fact, there are two other women who were convicted on the basis of the
359
1118000
2000
En fait, deux autres femmes ont aussi été condamnées sur la base
18:40
evidence of this pediatrician, who have subsequently been released on appeal.
360
1120000
4000
du témoignage du pédiatre, et ont plus tard été libérées en appel.
18:44
Many cases were reviewed.
361
1124000
2000
De nombreux cas ont été revus.
18:46
And it's particularly topical because he's currently facing a disrepute charge
362
1126000
4000
C'est un sujet d'actualité car ce pédiatre subit actuellement un procès en disgrâce
18:50
at Britain's General Medical Council.
363
1130000
3000
de la part de l'ordre des médecins de Grande Bretagne.
18:53
So just to conclude -- what are the take-home messages from this?
364
1133000
4000
Pour conclure -- quels sont les messages que vous devez retenir de tout ça ?
18:57
Well, we know that randomness and uncertainty and chance
365
1137000
4000
Bien, nous savons que le hasard, l'incertain, et la probabilité
19:01
are very much a part of our everyday life.
366
1141000
3000
font partie de notre vie de tous les jours.
19:04
It's also true -- and, although, you, as a collective, are very special in many ways,
367
1144000
5000
Collectivement, bien que spéciaux à bien des égards,
19:09
you're completely typical in not getting the examples I gave right.
368
1149000
4000
vous êtes passés comme tout le monde à côté des exemples que j'ai donnés.
19:13
It's very well documented that people get things wrong.
369
1153000
3000
C'est un fait que les gens ne comprennent pas ces choses-là.
19:16
They make errors of logic in reasoning with uncertainty.
370
1156000
3000
Ils font des erreurs de logique lorsqu'ils raisonnent dans l'incertain.
19:20
We can cope with the subtleties of language brilliantly --
371
1160000
2000
Nous pouvons nous débrouiller brillamment avec les subtilités du langage --
19:22
and there are interesting evolutionary questions about how we got here.
372
1162000
3000
et il y a des travaux intéressants sur l'évolution pour expliquer pourquoi nous en sommes là.
19:25
We are not good at reasoning with uncertainty.
373
1165000
3000
Nous ne sommes pas doués pour raisonner dans l'incertain.
19:28
That's an issue in our everyday lives.
374
1168000
2000
C'est un problème dans nos vies de tous les jours.
19:30
As you've heard from many of the talks, statistics underpins an enormous amount
375
1170000
3000
Comme vous l'avez entendu dans les conférences, les statistiques sous-tendent un grand nombre
19:33
of research in science -- in social science, in medicine
376
1173000
3000
de recherches en science -- en science sociale, en médecine
19:36
and indeed, quite a lot of industry.
377
1176000
2000
et aussi, bien sûr, dans l'industrie.
19:38
All of quality control, which has had a major impact on industrial processing,
378
1178000
4000
Tout le contrôle de la qualité, qui a un impact majeur sur les processus industriels
19:42
is underpinned by statistics.
379
1182000
2000
est sous-tendu par les statistiques.
19:44
It's something we're bad at doing.
380
1184000
2000
C'est quelque chose que nous ne savons pas faire.
19:46
At the very least, we should recognize that, and we tend not to.
381
1186000
3000
Tout au moins, nous devrions l'admettre, mais nous avons tendance à ne pas le faire.
19:49
To go back to the legal context, at the Sally Clark trial
382
1189000
4000
Pour en revenir à la justice, au procès de Sally Clark
19:53
all of the lawyers just accepted what the expert said.
383
1193000
4000
les avocats ont tous accepté ce que l'expert a dit.
19:57
So if a pediatrician had come out and said to a jury,
384
1197000
2000
Mais si un pédiatre avait dit au jury,
19:59
"I know how to build bridges. I've built one down the road.
385
1199000
3000
"Je sais construire des ponts. J'en ai construit un en bas de la rue.
20:02
Please drive your car home over it,"
386
1202000
2000
Vous pouvez passer dessus en voiture"
20:04
they would have said, "Well, pediatricians don't know how to build bridges.
387
1204000
2000
ils auraient dit, "Les pédiatres ne savent pas construire de ponts.
20:06
That's what engineers do."
388
1206000
2000
C'est le travail des ingénieurs."
20:08
On the other hand, he came out and effectively said, or implied,
389
1208000
3000
Mais il a dit, effectivement ou implicitement,
20:11
"I know how to reason with uncertainty. I know how to do statistics."
390
1211000
3000
"Je sais raisonner dans l'incertain. Je connais les statistiques."
20:14
And everyone said, "Well, that's fine. He's an expert."
391
1214000
3000
Et tout le monde a dit, "C'est OK. Il est expert."
20:17
So we need to understand where our competence is and isn't.
392
1217000
3000
Nous devons savoir quelles sont nos compétences.
20:20
Exactly the same kinds of issues arose in the early days of DNA profiling,
393
1220000
4000
Les mêmes problèmes ont été soulevés au début des tests ADN,
20:24
when scientists, and lawyers and in some cases judges,
394
1224000
4000
quand les scientifiques, les avocats et certains juges,
20:28
routinely misrepresented evidence.
395
1228000
3000
déformaient systématiquement la vérité.
20:32
Usually -- one hopes -- innocently, but misrepresented evidence.
396
1232000
3000
En général -- on peut l'espérer -- innocemment, mais ils la déformaient quand même.
20:35
Forensic scientists said, "The chance that this guy's innocent is one in three million."
397
1235000
5000
Les légistes disaient, "La probabilité que ce type soit innocent est d'un sur trois millions.
20:40
Even if you believe the number, just like the 73 million to one,
398
1240000
2000
Même si vous croyez en ce nombre, comme un sur 73 millions,
20:42
that's not what it meant.
399
1242000
2000
il ne veut pas dire ce que vous croyez.
20:44
And there have been celebrated appeal cases
400
1244000
2000
Et il y a eu des cas célèbres d'appels
20:46
in Britain and elsewhere because of that.
401
1246000
2000
en Grande Bretagne et ailleurs à cause de cela.
20:48
And just to finish in the context of the legal system.
402
1248000
3000
Et juste pour finir sur le thème de la justice,
20:51
It's all very well to say, "Let's do our best to present the evidence."
403
1251000
4000
c'est très bien de dire, "Faisons de notre mieux pour présenter les témoignages."
20:55
But more and more, in cases of DNA profiling -- this is another one --
404
1255000
3000
Mais de plus en plus, dans les cas de tests ADN -- et c'en est un --
20:58
we expect juries, who are ordinary people --
405
1258000
3000
nous attendons des jurés, qui sont des gens ordinaires --
21:01
and it's documented they're very bad at this --
406
1261000
2000
et il est connu qu'ils ne savent pas le faire --
21:03
we expect juries to be able to cope with the sorts of reasoning that goes on.
407
1263000
4000
nous attendons des jurés qu'ils soient capables de ce genre de raisonnements.
21:07
In other spheres of life, if people argued -- well, except possibly for politics --
408
1267000
5000
Dans d'autres domaines de la vie, si les gens, en débattant -- disons, sauf en politique.
21:12
but in other spheres of life, if people argued illogically,
409
1272000
2000
Mais dans d'autres domaines, si les gens utilisent des arguments illogiques,
21:14
we'd say that's not a good thing.
410
1274000
2000
nous dirions que ce n'est pas une bonne chose.
21:16
We sort of expect it of politicians and don't hope for much more.
411
1276000
4000
C'est ce que nous demandons aux politiciens et nous n'en demandons pas beaucoup plus.
21:20
In the case of uncertainty, we get it wrong all the time --
412
1280000
3000
Dans le cas des probabilités, nous avons toujours faux --
21:23
and at the very least, we should be aware of that,
413
1283000
2000
mais au moins, nous devrions en être conscients.
21:25
and ideally, we might try and do something about it.
414
1285000
2000
Et idéalement, nous pourrions peut-être y faire quelque chose.
21:27
Thanks very much.
415
1287000
1000
Merci beaucoup.
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7