Peter Donnelly: How stats fool juries

243,473 views ・ 2007-01-12

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

מתרגם: Yifat Adler מבקר: Ran Amitay
00:25
As other speakers have said, it's a rather daunting experience --
0
25000
2000
כפי שאמרו לפני, זה די מלחיץ --
00:27
a particularly daunting experience -- to be speaking in front of this audience.
1
27000
3000
בעצם, מלחיץ מאוד -- לדבר לפני הקהל הזה.
00:30
But unlike the other speakers, I'm not going to tell you about
2
30000
3000
אבל בניגוד לדוברים אחרים, אני לא עומד לספר לכם
00:33
the mysteries of the universe, or the wonders of evolution,
3
33000
2000
על מסתרי היקום, על פלאי האבולוציה,
00:35
or the really clever, innovative ways people are attacking
4
35000
4000
או על דרכים חכמות וחדשניות להתמודדות
00:39
the major inequalities in our world.
5
39000
2000
עם חוסר השיוויון העולמי.
00:41
Or even the challenges of nation-states in the modern global economy.
6
41000
5000
ואפילו לא על האתגרים של מדינות-הלאום בעידן הכלכלה הגלובלית המודרנית.
00:46
My brief, as you've just heard, is to tell you about statistics --
7
46000
4000
כפי ששמעתם, אני עומד לספר לכם על סטטיסטיקה --
00:50
and, to be more precise, to tell you some exciting things about statistics.
8
50000
3000
ואם נדייק, לספר לכם כמה דברים מרתקים על סטטיסטיקה.
00:53
And that's --
9
53000
1000
וזה --
00:54
(Laughter)
10
54000
1000
[צחוק]
00:55
-- that's rather more challenging
11
55000
2000
-- זהו אתגר גדול יותר מזה של
00:57
than all the speakers before me and all the ones coming after me.
12
57000
2000
כל הדוברים שהיו לפני וכל אלה שיגיעו בהמשך.
00:59
(Laughter)
13
59000
1000
[צחוק]
01:01
One of my senior colleagues told me, when I was a youngster in this profession,
14
61000
5000
אחד מעמיתי הבכירים אמר לי בגאווה רבה, בתחילת דרכי במקצוע הזה,
01:06
rather proudly, that statisticians were people who liked figures
15
66000
4000
שסטטיסטיקאים הם אנשים שאוהבים מספרים,
01:10
but didn't have the personality skills to become accountants.
16
70000
3000
אבל אין להם כישורי האישיות הדרושים להיות רואי חשבון.
01:13
(Laughter)
17
73000
2000
[צחוק]
01:15
And there's another in-joke among statisticians, and that's,
18
75000
3000
ויש עוד בדיחה פנימית של סטטיסטיקאים,
01:18
"How do you tell the introverted statistician from the extroverted statistician?"
19
78000
3000
"איך מבדילים בין סטטיסטיקאי מופנם לסטטיסטיקאי מוחצן?"
01:21
To which the answer is,
20
81000
2000
והתשובה היא,
01:23
"The extroverted statistician's the one who looks at the other person's shoes."
21
83000
5000
"הסטטיסטיקאי המוחצן הוא זה שבוחן נעליים של אנשים אחרים."
01:28
(Laughter)
22
88000
3000
[צחוק]
01:31
But I want to tell you something useful -- and here it is, so concentrate now.
23
91000
5000
אבל אני רוצה לדבר על משהו שימושי - - אז כדאי להתרכז עכשיו.
01:36
This evening, there's a reception in the University's Museum of Natural History.
24
96000
3000
הערב נערכת קבלת פנים במוזיאון להיסטוריה של הטבע של האוניברסיטה.
01:39
And it's a wonderful setting, as I hope you'll find,
25
99000
2000
זהו אתר נפלא, כפי שאני מקווה שתגלו,
01:41
and a great icon to the best of the Victorian tradition.
26
101000
5000
וסמל חשוב למיטב המסורת הויקטוריאנית.
01:46
It's very unlikely -- in this special setting, and this collection of people --
27
106000
5000
זה מאוד לא סביר -- באתר המיוחד הזה ועם אוסף האנשים הזה --
01:51
but you might just find yourself talking to someone you'd rather wish that you weren't.
28
111000
3000
אבל אתם עלולים למצוא את עצמכם מדברים עם מישהו שאתם מעדיפים להמנע משיחה איתו.
01:54
So here's what you do.
29
114000
2000
אז זה מה שאתם צריכים לעשות.
01:56
When they say to you, "What do you do?" -- you say, "I'm a statistician."
30
116000
4000
כששואלים אתכם, "במה אתם עוסקים?" -- תגידו "אני סטטיסטיקאי."
02:00
(Laughter)
31
120000
1000
[צחוק]
02:01
Well, except they've been pre-warned now, and they'll know you're making it up.
32
121000
4000
אבל עכשיו הם כבר קיבלו אזהרה מוקדמת וידעו שאתם מבלפים.
02:05
And then one of two things will happen.
33
125000
2000
ואז יש שתי אפשרויות.
02:07
They'll either discover their long-lost cousin in the other corner of the room
34
127000
2000
הם יגלו את הדודן האבוד שלהם בפינה הרחוקה
02:09
and run over and talk to them.
35
129000
2000
של החדר וירוצו לדבר איתו.
02:11
Or they'll suddenly become parched and/or hungry -- and often both --
36
131000
3000
או שהם יזכרו באופן פתאומי שהם מתים מצמא ו/או מרעב
02:14
and sprint off for a drink and some food.
37
134000
2000
ויפתחו בריצה קלה לעבר המשקאות והמזון.
02:16
And you'll be left in peace to talk to the person you really want to talk to.
38
136000
4000
ואז תהיו חופשיים לדבר עם מי שבאמת תרצו לדבר איתו.
02:20
It's one of the challenges in our profession to try and explain what we do.
39
140000
3000
אחד מאתגרי המקצוע הוא לנסות להסביר מה אנחנו עושים.
02:23
We're not top on people's lists for dinner party guests and conversations and so on.
40
143000
5000
אנחנו לא בראש רשימות האורחים והנושאים לשיחה בסעודות חגיגיות.
02:28
And it's something I've never really found a good way of doing.
41
148000
2000
וזה משהו שמעולם לא מצאתי דרך טובה לבצע.
02:30
But my wife -- who was then my girlfriend --
42
150000
3000
אבל אשתי -- שהייתה אז החברה שלי --
02:33
managed it much better than I've ever been able to.
43
153000
3000
טיפלה בזה הרבה יותר טוב ממני.
02:36
Many years ago, when we first started going out, she was working for the BBC in Britain,
44
156000
3000
לפני הרבה שנים, כשהתחלנו לצאת, היא עבדה עבור הבי.בי.סי. בבריטניה,
02:39
and I was, at that stage, working in America.
45
159000
2000
ובאותו שלב, אני עבדתי באמריקה.
02:41
I was coming back to visit her.
46
161000
2000
חזרתי כדי לבקר אותה.
02:43
She told this to one of her colleagues, who said, "Well, what does your boyfriend do?"
47
163000
6000
היא סיפרה על כך לאחת מחברותיה לעבודה ששאלה, "במה עוסק החבר שלך?"
02:49
Sarah thought quite hard about the things I'd explained --
48
169000
2000
שרה חשבה עמוקות על הדברים שהסברתי --
02:51
and she concentrated, in those days, on listening.
49
171000
4000
באותם הימים היא התרכזה בהקשבה.
02:55
(Laughter)
50
175000
2000
[צחוק]
02:58
Don't tell her I said that.
51
178000
2000
אל תגלו לה שאמרתי את זה.
03:00
And she was thinking about the work I did developing mathematical models
52
180000
4000
היא חשבה על העבודה שלי בפיתוח מודלים מתמטיים
03:04
for understanding evolution and modern genetics.
53
184000
3000
להבנה של אבולוציה וגנטיקה מודרנית.
03:07
So when her colleague said, "What does he do?"
54
187000
3000
וכאשר העמיתה שלה שאלה, "במה הוא עוסק?"
03:10
She paused and said, "He models things."
55
190000
4000
היא עצרה רגע ואמרה, "הוא מדגמן (=בונה דגמים של) דברים."
03:14
(Laughter)
56
194000
1000
[צחוק]
03:15
Well, her colleague suddenly got much more interested than I had any right to expect
57
195000
4000
העמיתה שלה גילתה פתאום עניין רב שלא הייתי ראוי לו
03:19
and went on and said, "What does he model?"
58
199000
3000
ושאלה, "מה הוא מדגמן?"
03:22
Well, Sarah thought a little bit more about my work and said, "Genes."
59
202000
3000
שרה חשבה עוד קצת על העבודה שלי וענתה "ג'ינס (=גנים)."
03:25
(Laughter)
60
205000
4000
[צחוק]
03:29
"He models genes."
61
209000
2000
"הוא מדגמן ג'ינס."
03:31
That is my first love, and that's what I'll tell you a little bit about.
62
211000
4000
וזוהי אהבתי הראשונה, עליה אדבר קצת עכשיו.
03:35
What I want to do more generally is to get you thinking about
63
215000
4000
וביתר כלליות, אני רוצה שתחשבו
03:39
the place of uncertainty and randomness and chance in our world,
64
219000
3000
על המקום של חוסר הוודאות, האקראיות והמקרה בעולמנו,
03:42
and how we react to that, and how well we do or don't think about it.
65
222000
5000
איך אנחנו מגיבים להם, ועד כמה אנו חושבים עליהם בצורה נכונה.
03:47
So you've had a pretty easy time up till now --
66
227000
2000
בהרצאות עד עכשיו היה לכם די קל --
03:49
a few laughs, and all that kind of thing -- in the talks to date.
67
229000
2000
קצת צחוקים, ודברים כאלה.
03:51
You've got to think, and I'm going to ask you some questions.
68
231000
3000
עכשיו תצטרכו להפעיל את המוח, ואני עומד לשאול אתכם כמה שאלות.
03:54
So here's the scene for the first question I'm going to ask you.
69
234000
2000
זאת התפאורה לשאלה הראשונה שאציג בפניכם.
03:56
Can you imagine tossing a coin successively?
70
236000
3000
תוכלו לדמיין את עצמכם מטילים מטבע ברצף?
03:59
And for some reason -- which shall remain rather vague --
71
239000
3000
מסיבה כלשהי -- שתשאר די מעורפלת --
04:02
we're interested in a particular pattern.
72
242000
2000
אנחנו מתעניינים בדפוס מסויים.
04:04
Here's one -- a head, followed by a tail, followed by a tail.
73
244000
3000
הנה דפוס - עץ, אחריו פלי, ואחריו פלי.
04:07
So suppose we toss a coin repeatedly.
74
247000
3000
נניח שאנחנו חוזרים על הטלת מטבע.
04:10
Then the pattern, head-tail-tail, that we've suddenly become fixated with happens here.
75
250000
5000
ואז הדפוס של עץ-פלי-פלי, שפתאום התחלנו לגלות בו ענין רב, מופיע כאן.
04:15
And you can count: one, two, three, four, five, six, seven, eight, nine, 10 --
76
255000
4000
ואפשר לספור: 1, 2, 3, 4, 5, 6, 7, 8, 9, 10 --
04:19
it happens after the 10th toss.
77
259000
2000
הוא מופיע אחרי ההטלה ה-10.
04:21
So you might think there are more interesting things to do, but humor me for the moment.
78
261000
3000
אולי תחשבו שיש דברים יותר מעניינים לעשות, אבל תשארו איתי רגע.
04:24
Imagine this half of the audience each get out coins, and they toss them
79
264000
4000
דמיינו שהחצי הזה של הקהל מקבל מטבעות ומטיל אותם
04:28
until they first see the pattern head-tail-tail.
80
268000
3000
עד הפעם הראשונה בה מופיע עץ-פלי-פלי.
04:31
The first time they do it, maybe it happens after the 10th toss, as here.
81
271000
2000
בפעם הראשונה אולי זה יופיע אחרי ההטלה ה-10, כמו כאן.
04:33
The second time, maybe it's after the fourth toss.
82
273000
2000
בפעם השנייה אולי אחרי ההטלה ה-4.
04:35
The next time, after the 15th toss.
83
275000
2000
בפעם הבאה, אחרי ההטלה ה-15.
04:37
So you do that lots and lots of times, and you average those numbers.
84
277000
3000
תחזרו על כך הרבה פעמים, ותחשבו ממוצע של המספרים האלה.
04:40
That's what I want this side to think about.
85
280000
3000
זה מה שאני רוצה שהצד הזה יחשוב עליו.
04:43
The other half of the audience doesn't like head-tail-tail --
86
283000
2000
החצי השני של הקהל לא מחבב את עץ-פלי-פלי --
04:45
they think, for deep cultural reasons, that's boring --
87
285000
3000
הם חושבים, מסיבות תרבותיות עמוקות, שזהו דפוס משעמם --
04:48
and they're much more interested in a different pattern -- head-tail-head.
88
288000
3000
והם מגלים עניין רב בדפוס אחר -- עץ-פלי-עץ.
04:51
So, on this side, you get out your coins, and you toss and toss and toss.
89
291000
3000
אז, בצד הזה, תקבלו את המטבעות שלכם, ותטילו אותם שוב ושוב ושוב.
04:54
And you count the number of times until the pattern head-tail-head appears
90
294000
3000
ואתם תספרו את מספר ההטלות עד שהדפוס עץ-פלי-עץ מופיע
04:57
and you average them. OK?
91
297000
3000
ותחשבו ממוצע שלהן. אוקי?
05:00
So on this side, you've got a number --
92
300000
2000
אז בצד הזה, יש לכם מספר --
05:02
you've done it lots of times, so you get it accurately --
93
302000
2000
עשיתם זאת הרבה פעמים, אז קיבלתם תוצאה מדוייקת --
05:04
which is the average number of tosses until head-tail-tail.
94
304000
3000
שהיא מספר ההטלות הממוצע עד לעץ-פלי-פלי.
05:07
On this side, you've got a number -- the average number of tosses until head-tail-head.
95
307000
4000
ובצד הזה, יש לכם מספר -- מספר ההטלות הממוצע עד לעץ-פלי-עץ.
05:11
So here's a deep mathematical fact --
96
311000
2000
עובדה מתמטית עמוקה --
05:13
if you've got two numbers, one of three things must be true.
97
313000
3000
אם יש לכם 2 מספרים, אחד מ-3 הדברים הבאים חייב להתקיים.
05:16
Either they're the same, or this one's bigger than this one,
98
316000
3000
או שהם זהים, או שזה יותר גדול מזה,
05:19
or this one's bigger than that one.
99
319000
1000
או שזה יותר גדול מזה.
05:20
So what's going on here?
100
320000
3000
מה קורה כאן?
05:23
So you've all got to think about this, and you've all got to vote --
101
323000
2000
כולכם צריכים לחשוב, וכולכם צריכים להצביע --
05:25
and we're not moving on.
102
325000
1000
ואנחנו לא מתקדמים.
05:26
And I don't want to end up in the two-minute silence
103
326000
2000
ולא הייתי רוצה שתיווצר שתיקה של 2 דקות
05:28
to give you more time to think about it, until everyone's expressed a view. OK.
104
328000
4000
כדי שיהיה לכם יותר זמן לחשוב על כך, עד שכולם יחוו את דעתם.
05:32
So what you want to do is compare the average number of tosses until we first see
105
332000
4000
נרצה להשוות את מספר ההטלות הממוצע עד שנראה עץ-פלי-עץ בפעם הראשונה
05:36
head-tail-head with the average number of tosses until we first see head-tail-tail.
106
336000
4000
למספר ההטלות הממוצע עד שנראה עץ-פלי-פלי בפעם הראשונה.
05:41
Who thinks that A is true --
107
341000
2000
מי חושב שא' נכון --
05:43
that, on average, it'll take longer to see head-tail-head than head-tail-tail?
108
343000
4000
כלומר, בממוצע, ייקח יותר זמן לראות עץ-פלי-עץ מאשר עץ-פלי-פלי?
05:47
Who thinks that B is true -- that on average, they're the same?
109
347000
3000
מי חושב שב' נכון -- שבממוצע הם זהים?
05:51
Who thinks that C is true -- that, on average, it'll take less time
110
351000
2000
מי חושב שג' נכון -- שבממוצע זה יקח פחות פעמים
05:53
to see head-tail-head than head-tail-tail?
111
353000
3000
לראות עץ-פלי-עץ מאשר עץ-פלי-פלי?
05:57
OK, who hasn't voted yet? Because that's really naughty -- I said you had to.
112
357000
3000
מי עדיין לא הצביע? שובבים -- אמרתי שחייבים להצביע.
06:00
(Laughter)
113
360000
1000
[צחוק]
06:02
OK. So most people think B is true.
114
362000
3000
רוב האנשים חושבים שב' נכון.
06:05
And you might be relieved to know even rather distinguished mathematicians think that.
115
365000
3000
ואולי תשמחו לשמוע שמתמטיקאים די מכובדים חושבים כמוכם.
06:08
It's not. A is true here.
116
368000
4000
אבל לא. א' היא התשובה הנכונה.
06:12
It takes longer, on average.
117
372000
2000
זה לוקח יותר זמן, בממוצע.
06:14
In fact, the average number of tosses till head-tail-head is 10
118
374000
2000
למעשה, מספר ההטלות הממוצע עד עץ-פלי-עץ הוא 10
06:16
and the average number of tosses until head-tail-tail is eight.
119
376000
5000
ומספר ההטלות הממוצע עד עץ-פלי-פלי הוא 8.
06:21
How could that be?
120
381000
2000
איך זה ייתכן?
06:24
Anything different about the two patterns?
121
384000
3000
יש הבדל בין שני הדפוסים?
06:30
There is. Head-tail-head overlaps itself.
122
390000
5000
והתשובה היא כן. עץ-פלי-עץ חופף את עצמו.
06:35
If you went head-tail-head-tail-head, you can cunningly get two occurrences
123
395000
4000
אם יוצא לכם עץ-פלי-עץ-פלי-עץ, תוכלו לקבל בערמומיות 2 מופעים
06:39
of the pattern in only five tosses.
124
399000
3000
של הדפוס ב-5 הטלות בלבד.
06:42
You can't do that with head-tail-tail.
125
402000
2000
לא ניתן לעשות זאת עם עץ-פלי-פלי.
06:44
That turns out to be important.
126
404000
2000
ומסתבר שזה חשוב.
06:46
There are two ways of thinking about this.
127
406000
2000
יש 2 דרכים לחשוב על כך.
06:48
I'll give you one of them.
128
408000
2000
אציג בפניכם אחת מהן.
06:50
So imagine -- let's suppose we're doing it.
129
410000
2000
דמיינו לעצמכם -- נניח שאנחנו מבצעים זאת.
06:52
On this side -- remember, you're excited about head-tail-tail;
130
412000
2000
בצד הזה -- אתם זוכרים, אתם מתלהבים מעץ-פלי-פלי,
06:54
you're excited about head-tail-head.
131
414000
2000
ואתם מתלהבים מעץ-פלי-עץ.
06:56
We start tossing a coin, and we get a head --
132
416000
3000
אנחנו מתחילים להטיל מטבע, וקיבלנו עץ --
06:59
and you start sitting on the edge of your seat
133
419000
1000
אתם יושבים על קצה הכסא
07:00
because something great and wonderful, or awesome, might be about to happen.
134
420000
5000
כי ייתכן שמשהו ענק ונפלא, או עצום וכביר, עומד להתרחש.
07:05
The next toss is a tail -- you get really excited.
135
425000
2000
ההטלה הבאה היא פלי -- אתם ממש מתלהבים.
07:07
The champagne's on ice just next to you; you've got the glasses chilled to celebrate.
136
427000
4000
השמפניה בקרח מוכנה, הגביעים כבר בקירור לקראת החגיגה.
07:11
You're waiting with bated breath for the final toss.
137
431000
2000
אתם מחכים בנשימה עצורה להטלה הסופית.
07:13
And if it comes down a head, that's great.
138
433000
2000
אם יוצא עץ, זה נפלא.
07:15
You're done, and you celebrate.
139
435000
2000
סיימתם ואתם חוגגים.
07:17
If it's a tail -- well, rather disappointedly, you put the glasses away
140
437000
2000
אם יוצא פלי -- אז, באכזבה רבה, אתם מניחים
07:19
and put the champagne back.
141
439000
2000
את הגביעים ואת השמפניה בצד.
07:21
And you keep tossing, to wait for the next head, to get excited.
142
441000
3000
ואתם ממשיכים להטיל, לחכות לעץ הבא, להתלהב.
07:25
On this side, there's a different experience.
143
445000
2000
בצד הזה, ההתנסות היא שונה.
07:27
It's the same for the first two parts of the sequence.
144
447000
3000
זה אותו הדבר בשני החלקים הראשונים של הסדרה.
07:30
You're a little bit excited with the first head --
145
450000
2000
אתם קצת מתרגשים כשמופיע העץ הראשון --
07:32
you get rather more excited with the next tail.
146
452000
2000
מתלהבים קצת יותר עם הפלי הבא.
07:34
Then you toss the coin.
147
454000
2000
ואז אתם מטילים את המטבע.
07:36
If it's a tail, you crack open the champagne.
148
456000
3000
אם יצא פלי, פותחים את השמפניה.
07:39
If it's a head you're disappointed,
149
459000
2000
אם יצא עץ, אתם מאוכזבים,
07:41
but you're still a third of the way to your pattern again.
150
461000
3000
אבל אתם כבר בשליש הדרך לקראת הדפוס הבא שלכם.
07:44
And that's an informal way of presenting it -- that's why there's a difference.
151
464000
4000
זוהי דרך לא פורמלית להציג זאת -- אבל זאת הסיבה להבדל.
07:48
Another way of thinking about it --
152
468000
2000
דרך אחרת לחשוב על כך --
07:50
if we tossed a coin eight million times,
153
470000
2000
אם היינו מטילים מטבע 8 מיליון פעמים,
07:52
then we'd expect a million head-tail-heads
154
472000
2000
היינו מצפים למיליון עץ-פלי-עץ
07:54
and a million head-tail-tails -- but the head-tail-heads could occur in clumps.
155
474000
7000
ולמיליון עץ-פלי-פלי -- אבל העץ-פלי-עץ היו יכולים להופיע במקבצים.
08:01
So if you want to put a million things down amongst eight million positions
156
481000
2000
אז אם רוצים לשים מיליון דברים בין 8 מיליון מקומות
08:03
and you can have some of them overlapping, the clumps will be further apart.
157
483000
5000
כשחלקם יכולים להיות חופפים, הרווחים בין המקבצים יהיו גדולים יותר.
08:08
It's another way of getting the intuition.
158
488000
2000
זוהי דרך אחת להסבר אינטואיטיבי.
08:10
What's the point I want to make?
159
490000
2000
מה אני רוצה להגיד?
08:12
It's a very, very simple example, an easily stated question in probability,
160
492000
4000
זוהי דוגמא מאוד מאוד פשוטה, שאלה בהסתברות שמנוסחת בקלות,
08:16
which every -- you're in good company -- everybody gets wrong.
161
496000
3000
שכולם -- אתם בחברה טובה -- כולם טועים בה.
08:19
This is my little diversion into my real passion, which is genetics.
162
499000
4000
זוהי סטייה קטנה לתשוקה האמיתית שלי - גנטיקה.
08:23
There's a connection between head-tail-heads and head-tail-tails in genetics,
163
503000
3000
יש קשר בין עץ-פלי-עץ ועץ-פלי-פלי בגנטיקה
08:26
and it's the following.
164
506000
3000
ואציג אותו בפניכם.
08:29
When you toss a coin, you get a sequence of heads and tails.
165
509000
3000
כאשר מטילים מטבע, מקבלים סדרה של עצים ופלים.
08:32
When you look at DNA, there's a sequence of not two things -- heads and tails --
166
512000
3000
כשמתבוננים בדי.אן.איי., יש סדרות שאינן של 2 דברים -- עצים ופלים --
08:35
but four letters -- As, Gs, Cs and Ts.
167
515000
3000
אלא של 4 אותיות -- A-ים, G-ים, C-ים ו-T-ים.
08:38
And there are little chemical scissors, called restriction enzymes
168
518000
3000
יש מספריים כימיים קטנים שנקראים אנזימי הגבלה
08:41
which cut DNA whenever they see particular patterns.
169
521000
2000
שחותכים את הדי.אן.איי. כשהם נתקלים בדפוסים מסויימים.
08:43
And they're an enormously useful tool in modern molecular biology.
170
523000
4000
הם כלי שימושי ביותר בביולוגיה מולקולרית מודרנית.
08:48
And instead of asking the question, "How long until I see a head-tail-head?" --
171
528000
3000
ובמקום לשאול, "כמה זמן יקח עד שנראה עץ-פלי-עץ?" --
08:51
you can ask, "How big will the chunks be when I use a restriction enzyme
172
531000
3000
אפשר לשאול, "מה יהיה גודל החתיכות כשאשתמש באנזים הגבלה
08:54
which cuts whenever it sees G-A-A-G, for example?
173
534000
4000
שחותך בכל פעם שהוא מוצא G-A-A-G, לדוגמא?
08:58
How long will those chunks be?"
174
538000
2000
מה יהיה אורך החתיכות?"
09:00
That's a rather trivial connection between probability and genetics.
175
540000
5000
זהו קשר די טריוויאלי בין הסתברות וגנטיקה.
09:05
There's a much deeper connection, which I don't have time to go into
176
545000
3000
יש קשר הרבה יותר עמוק, שאין לי זמן להכנס אליו,
09:08
and that is that modern genetics is a really exciting area of science.
177
548000
3000
והוא שגנטיקה מודרנית היא שטח מדעי מאוד מרתק.
09:11
And we'll hear some talks later in the conference specifically about that.
178
551000
4000
בהמשך הועידה נשמע כמה הרצאות על הנושא.
09:15
But it turns out that unlocking the secrets in the information generated by modern
179
555000
4000
אבל מתברר שחשיפת הסודות בנתונים שמיוצרים ע"י
09:19
experimental technologies, a key part of that has to do with fairly sophisticated --
180
559000
5000
טכנולוגיות ניסיוניות מודרניות, מרכיב מפתח בחשיפה זו --
09:24
you'll be relieved to know that I do something useful in my day job,
181
564000
3000
ודאי תשמחו לשמוע שאני עוסק בדברים שימושיים בעבודת היום-יום שלי,
09:27
rather more sophisticated than the head-tail-head story --
182
567000
2000
מורכבים יותר מסיפור העץ-פלי-עץ --
09:29
but quite sophisticated computer modelings and mathematical modelings
183
569000
4000
מודלים מחשביים ומודלים מתמטיים
09:33
and modern statistical techniques.
184
573000
2000
וטכניקות סטטיסטיות מודרניות מתוחכמים למדי.
09:35
And I will give you two little snippets -- two examples --
185
575000
3000
אציג בפניכם 2 דוגמאות
09:38
of projects we're involved in in my group in Oxford,
186
578000
3000
לפרוייקטים שהקבוצה שלי מאוקספורד מעורבת בהם.
09:41
both of which I think are rather exciting.
187
581000
2000
אני חושב ששניהם מרתקים למדי.
09:43
You know about the Human Genome Project.
188
583000
2000
ודאי שמעתם על פרוייקט הגנום האנושי.
09:45
That was a project which aimed to read one copy of the human genome.
189
585000
4000
זהו פרייקט שמטרתו הייתה קריאת עותק אחד של הגנום האנושי.
09:51
The natural thing to do after you've done that --
190
591000
2000
לאחר שהפרוייקט הושלם - הדבר הטבעי לעשותו
09:53
and that's what this project, the International HapMap Project,
191
593000
2000
הוא מה שעשה פרוייקט ה-HapMap הבינלאומי,
09:55
which is a collaboration between labs in five or six different countries.
192
595000
5000
שהוא שיתוף פעולה בין מעבדות מ-5 או 6 מדינות שונות.
10:00
Think of the Human Genome Project as learning what we've got in common,
193
600000
4000
חישבו על פרוייקט הגנום האנושי כעל למידה של מה שמשותף לנו.
10:04
and the HapMap Project is trying to understand
194
604000
2000
פרוייקט ה-HapMap מנסה להבין
10:06
where there are differences between different people.
195
606000
2000
איפה קיימים ההבדלים בין האנשים השונים.
10:08
Why do we care about that?
196
608000
2000
למה זה מעניין אותנו?
10:10
Well, there are lots of reasons.
197
610000
2000
מסיבות רבות.
10:12
The most pressing one is that we want to understand how some differences
198
612000
4000
הסיבה הבוערת ביותר היא שאנו רוצים להבין איך הבדלים מסויימים
10:16
make some people susceptible to one disease -- type-2 diabetes, for example --
199
616000
4000
גורמים לאנשים מסויימים להיות רגישים למחלה מסויימת - סוכרת סוג 2, לדוגמא,
10:20
and other differences make people more susceptible to heart disease,
200
620000
5000
והבדלים אחרים גורמים לאנשים להיות יותר רגישים למחלות לב,
10:25
or stroke, or autism and so on.
201
625000
2000
או לשבץ, או לאוטיזם וכו'.
10:27
That's one big project.
202
627000
2000
זה פרוייקט גדול אחד.
10:29
There's a second big project,
203
629000
2000
פרוייקט גדול נוסף,
10:31
recently funded by the Wellcome Trust in this country,
204
631000
2000
שנוסד לאחרונה ע"י וולקם טרסט במדינה הזאת,
10:33
involving very large studies --
205
633000
2000
כולל מחקרים רחבי היקף --
10:35
thousands of individuals, with each of eight different diseases,
206
635000
3000
אלפי אנשים, הסובלים מאחת מ-8 מחלות שונות,
10:38
common diseases like type-1 and type-2 diabetes, and coronary heart disease,
207
638000
4000
מחלות שכיחות כמו סוכרת סוג 1 וסוג 2, ומחלת לב כלילית,
10:42
bipolar disease and so on -- to try and understand the genetics.
208
642000
4000
הפרעה דו-קוטבית וכו'. מחקרים אלו מנסים להבין את הגנטיקה.
10:46
To try and understand what it is about genetic differences that causes the diseases.
209
646000
3000
הם מנסים להבין איזה רכיב בהבדלים הגנטיים גורם למחלות.
10:49
Why do we want to do that?
210
649000
2000
למה אנחנו רוצים לעשות זאת?
10:51
Because we understand very little about most human diseases.
211
651000
3000
מכיוון שאנחנו מבינים מעט מאוד על רוב המחלות האנושיות.
10:54
We don't know what causes them.
212
654000
2000
אנחנו לא יודעים מה גורם להן.
10:56
And if we can get in at the bottom and understand the genetics,
213
656000
2000
ואם נצליח לרדת לשורש העניין ולהבין את הגנטיקה,
10:58
we'll have a window on the way the disease works,
214
658000
3000
יהיה לנו חלון הצצה לאופן בו המחלה פועלת,
11:01
and a whole new way about thinking about disease therapies
215
661000
2000
ודרך חדשה לגמרי לחשוב על טיפול במחלות
11:03
and preventative treatment and so on.
216
663000
3000
ועל טיפול מונע וכו'.
11:06
So that's, as I said, the little diversion on my main love.
217
666000
3000
וכמו שאמרתי, זאת הייתה סטייה קטנה אל אהבתי העיקרית.
11:09
Back to some of the more mundane issues of thinking about uncertainty.
218
669000
5000
נחזור לכמה מהנושאים היותר ארציים של חשיבה על חוסר ודאות.
11:14
Here's another quiz for you --
219
674000
2000
הנה עוד חידה עבורכם --
11:16
now suppose we've got a test for a disease
220
676000
2000
נניח שיש לנו בדיקה למחלה
11:18
which isn't infallible, but it's pretty good.
221
678000
2000
שלא חסינה מפני טעויות, אבל היא די טובה.
11:20
It gets it right 99 percent of the time.
222
680000
3000
התוצאות שלה תקינות 99 אחוז מהזמן.
11:23
And I take one of you, or I take someone off the street,
223
683000
3000
ואני לוקח אחד מכם, או מישהו מהרחוב,
11:26
and I test them for the disease in question.
224
686000
2000
ובודק אם הוא חולה במחלה הנידונה.
11:28
Let's suppose there's a test for HIV -- the virus that causes AIDS --
225
688000
4000
נניח שזוהי בדיקה ל-HIV -- הוירוס שגורם לאיידס --
11:32
and the test says the person has the disease.
226
692000
3000
ושהבדיקה אומרת שהאדם חולה.
11:35
What's the chance that they do?
227
695000
3000
מה הסיכוי שהוא אכן חולה?
11:38
The test gets it right 99 percent of the time.
228
698000
2000
תוצאות הבדיקה תקינות 99 אחוז מהזמן.
11:40
So a natural answer is 99 percent.
229
700000
4000
לכן תשובה טבעית תהיה 99 אחוז.
11:44
Who likes that answer?
230
704000
2000
מי אוהב את התשובה הזאת?
11:46
Come on -- everyone's got to get involved.
231
706000
1000
קדימה -- כולם צריכים לענות.
11:47
Don't think you don't trust me anymore.
232
707000
2000
אל תחשבו שאתם כבר לא בוטחים בי.
11:49
(Laughter)
233
709000
1000
[צחוק]
11:50
Well, you're right to be a bit skeptical, because that's not the answer.
234
710000
3000
אתם צודקים אם אתם קצת ספקניים, כי זאת לא התשובה הנכונה.
11:53
That's what you might think.
235
713000
2000
זה מה שאתם אולי חושבים.
11:55
It's not the answer, and it's not because it's only part of the story.
236
715000
3000
זאת לא התשובה, אבל לא בגלל שזה רק חלק מהסיפור.
11:58
It actually depends on how common or how rare the disease is.
237
718000
3000
למעשה, זה תלוי במידה בה המחלה היא שכיחה או נדירה.
12:01
So let me try and illustrate that.
238
721000
2000
אנסה להמחיש זאת עבורכם.
12:03
Here's a little caricature of a million individuals.
239
723000
4000
זוהי קריקטורה קטנה של מיליון אנשים.
12:07
So let's think about a disease that affects --
240
727000
3000
נחשוב על מחלה די נדירה,
12:10
it's pretty rare, it affects one person in 10,000.
241
730000
2000
שמשפיעה על אדם אחד מתוך 10,000.
12:12
Amongst these million individuals, most of them are healthy
242
732000
3000
בין מיליון האנשים האלה, רובם בריאים
12:15
and some of them will have the disease.
243
735000
2000
וחלקם יסבלו מהמחלה.
12:17
And in fact, if this is the prevalence of the disease,
244
737000
3000
למעשה, אם זוהי השכיחות של המחלה,
12:20
about 100 will have the disease and the rest won't.
245
740000
3000
כ-100 יהיו חולים וכל השאר יהיו בריאים.
12:23
So now suppose we test them all.
246
743000
2000
נניח שאנחנו בודקים את כולם.
12:25
What happens?
247
745000
2000
מה יקרה?
12:27
Well, amongst the 100 who do have the disease,
248
747000
2000
מבין ה-100 שחולים,
12:29
the test will get it right 99 percent of the time, and 99 will test positive.
249
749000
5000
הבדיקה תתן תוצאה תקינה 99 אחוז מהזמן, ול-99 מהם התשובה תהיה חיובית.
12:34
Amongst all these other people who don't have the disease,
250
754000
2000
מבין האחרים שלא חולים,
12:36
the test will get it right 99 percent of the time.
251
756000
3000
הבדיקה תתן תשובה תקינה 99 אחוז מהזמן.
12:39
It'll only get it wrong one percent of the time.
252
759000
2000
היא תתן תוצאה שגויה רק באחוז אחד מהזמן.
12:41
But there are so many of them that there'll be an enormous number of false positives.
253
761000
4000
אבל מכיוון שיש כל כך הרבה אנשים - יהיה מספר עצום של תשובות חיוביות מוטעות.
12:45
Put that another way --
254
765000
2000
ובניסוח אחר --
12:47
of all of them who test positive -- so here they are, the individuals involved --
255
767000
5000
מבין כל אלה שמקבלים תשובה חיובית -- הנה הם --
12:52
less than one in 100 actually have the disease.
256
772000
5000
פחות מאחד ממאה אכן חולה.
12:57
So even though we think the test is accurate, the important part of the story is
257
777000
4000
ולמרות שאנחנו חושבים שהבדיקה מדוייקת, החלק החשוב של הסיפור הוא
13:01
there's another bit of information we need.
258
781000
3000
שישנם נתונים נוספים שאנו זקוקים להם.
13:04
Here's the key intuition.
259
784000
2000
זוהי האינטואיציה המובילה.
13:07
What we have to do, once we know the test is positive,
260
787000
3000
ברגע שאנחנו יודעים שהבדיקה חיובית,
13:10
is to weigh up the plausibility, or the likelihood, of two competing explanations.
261
790000
6000
עלינו לשקול את הסבירות, או הסיכוי, של שני הסברים אפשריים.
13:16
Each of those explanations has a likely bit and an unlikely bit.
262
796000
3000
לכל אחד מההסברים יש חלק סביר וחלק לא סביר.
13:19
One explanation is that the person doesn't have the disease --
263
799000
3000
הסבר אחד הוא שהאדם לא חולה --
13:22
that's overwhelmingly likely, if you pick someone at random --
264
802000
3000
זה סביר ביותר, אם בוחרים מישהו באופן אקראי --
13:25
but the test gets it wrong, which is unlikely.
265
805000
3000
אבל הבדיקה טועה - דבר לא סביר.
13:29
The other explanation is that the person does have the disease -- that's unlikely --
266
809000
3000
ההסבר השני הוא שהאדם חולה -- יש לכך סבירות נמוכה --
13:32
but the test gets it right, which is likely.
267
812000
3000
והבדיקה תקינה - לכך יש סבירות גבוהה.
13:35
And the number we end up with --
268
815000
2000
והמספר שאנחנו מקבלים בסופו של דבר --
13:37
that number which is a little bit less than one in 100 --
269
817000
3000
המספר שקצת יותר קטן מ-1 ל-100 --
13:40
is to do with how likely one of those explanations is relative to the other.
270
820000
6000
אומר מה הסבירות של הסבר אחד לעומת השני.
13:46
Each of them taken together is unlikely.
271
826000
2000
לכל אחד מהם סבירות נמוכה.
13:49
Here's a more topical example of exactly the same thing.
272
829000
3000
הנה דוגמא יותר אקטואלית לאותו הדבר.
13:52
Those of you in Britain will know about what's become rather a celebrated case
273
832000
4000
אם אתם מבריטניה אתם מכירים את המקרה המפורסם
13:56
of a woman called Sally Clark, who had two babies who died suddenly.
274
836000
5000
של אשה בשם סאלי קלארק, שהיו לה 2 תינוקות שמתו בפתאומיות.
14:01
And initially, it was thought that they died of what's known informally as "cot death,"
275
841000
4000
בהתחלה, חשבו שהם מתו ממה שידוע באופן לא פורמלי כ"מוות בעריסה",
14:05
and more formally as "Sudden Infant Death Syndrome."
276
845000
3000
ובאופן יותר פורמלי כתסמונת המוות הפתאומי בינקות.
14:08
For various reasons, she was later charged with murder.
277
848000
2000
מסיבות שונות, היא הורשעה מאוחר יותר ברצח.
14:10
And at the trial, her trial, a very distinguished pediatrician gave evidence
278
850000
4000
ובמשפט שלה, רופא ילדים מאוד מכובד העיד
14:14
that the chance of two cot deaths, innocent deaths, in a family like hers --
279
854000
5000
שהסיכוי לשני מקרים של מוות בעריסה, מקרי מוות תמימים, במשפחה כמו שלה,
14:19
which was professional and non-smoking -- was one in 73 million.
280
859000
6000
שהייתה מקצועית ולא מעשנת, הוא 1 ל-73 מיליון.
14:26
To cut a long story short, she was convicted at the time.
281
866000
3000
אם נקצר סיפור ארוך, היא הורשעה באותו הזמן.
14:29
Later, and fairly recently, acquitted on appeal -- in fact, on the second appeal.
282
869000
5000
מאוחר יותר, ודי לאחרונה, היא זוכתה לאחר ערעור -- למעשה, לאחר הערעור השני שלה.
14:34
And just to set it in context, you can imagine how awful it is for someone
283
874000
4000
וכדי שתראו את כל התמונה, נסו לדמיין כמה זה נורא
14:38
to have lost one child, and then two, if they're innocent,
284
878000
3000
לאבד ילד אחד, ואז עוד אחד - כשאתה חף מפשע,
14:41
to be convicted of murdering them.
285
881000
2000
ולהיות מורשע ברצח שלהם.
14:43
To be put through the stress of the trial, convicted of murdering them --
286
883000
2000
לעבור את כל המתח של המשפט, להיות מורשע ברצח,
14:45
and to spend time in a women's prison, where all the other prisoners
287
885000
3000
ולהגיע לבית הסוהר לנשים, בו כל שאר האסירות
14:48
think you killed your children -- is a really awful thing to happen to someone.
288
888000
5000
חושבות שרצחת את הילדים שלך -- זה דבר נורא ביותר.
14:53
And it happened in large part here because the expert got the statistics
289
893000
5000
וכאן, הוא התרחש בחלקו הגדול בגלל שתי טעויות חמורות
14:58
horribly wrong, in two different ways.
290
898000
3000
של המומחה בחישובי הסטטיסטיקה שלו.
15:01
So where did he get the one in 73 million number?
291
901000
4000
איך הוא הגיע למספר של 1 ל-73 מיליון?
15:05
He looked at some research, which said the chance of one cot death in a family
292
905000
3000
הוא מצא מחקר שאמר שהסיכוי למוות בעריסה אחד למשפחה
15:08
like Sally Clark's is about one in 8,500.
293
908000
5000
כמו זו של סאלי קלארק הוא כ-1 ל-8,500.
15:13
So he said, "I'll assume that if you have one cot death in a family,
294
913000
4000
ואז הוא אמר, "אני מניח שאם יש מקרה אחד של מוות בעריסה במשפחה,
15:17
the chance of a second child dying from cot death aren't changed."
295
917000
4000
הסיכוי שילד נוסף ימות ממוות בעריסה לא משתנה."
15:21
So that's what statisticians would call an assumption of independence.
296
921000
3000
זוהי מה שסטטיסטיקאים מכנים הנחת אי-תלות.
15:24
It's like saying, "If you toss a coin and get a head the first time,
297
924000
2000
זה כמו להגיד, "אם מטילים מטבע ומקבלים עץ,
15:26
that won't affect the chance of getting a head the second time."
298
926000
3000
זה לא משפיע על הסיכוי לקבלת עץ בפעם השנייה."
15:29
So if you toss a coin twice, the chance of getting a head twice are a half --
299
929000
5000
ולכן אם מטילים מטבע פעמיים, הסיכוי לקבל עץ פעמיים הוא
15:34
that's the chance the first time -- times a half -- the chance a second time.
300
934000
3000
חצי - הסיכוי לעץ בפעם הראשונה, כפול חצי - הסיכוי לעץ בפעם השנייה.
15:37
So he said, "Here,
301
937000
2000
אז הוא אמר,
15:39
I'll assume that these events are independent.
302
939000
4000
"אני אניח ששני המאורעות הם בלתי תלויים.
15:43
When you multiply 8,500 together twice,
303
943000
2000
כשמכפילים 8,500 ב-8,500,
15:45
you get about 73 million."
304
945000
2000
מקבלים בערך 73 מיליון."
15:47
And none of this was stated to the court as an assumption
305
947000
2000
וההנחה הזאת לא הוצגה בפני בית המשפט
15:49
or presented to the jury that way.
306
949000
2000
או בפני חבר המושבעים בצורה הזאת.
15:52
Unfortunately here -- and, really, regrettably --
307
952000
3000
לרוע המזל כאן, ובאופן מצער ביותר -
15:55
first of all, in a situation like this you'd have to verify it empirically.
308
955000
4000
קודם כל, במצב כזה צריך לוודא את הנתונים באופן אמפירי.
15:59
And secondly, it's palpably false.
309
959000
2000
ודבר שני, זה בפירוש לא נכון.
16:02
There are lots and lots of things that we don't know about sudden infant deaths.
310
962000
5000
יש המון דברים לא ידועים על מוות בעריסה.
16:07
It might well be that there are environmental factors that we're not aware of,
311
967000
3000
יתכן מאוד שקיימים גורמים סביבתיים שאנחנו לא מודעים להם,
16:10
and it's pretty likely to be the case that there are
312
970000
2000
וישנה סבירות גבוהה שמעורבים בכך
16:12
genetic factors we're not aware of.
313
972000
2000
גורמים גנטיים שאנחנו לא מודעים לקיומם.
16:14
So if a family suffers from one cot death, you'd put them in a high-risk group.
314
974000
3000
ולכן, אם במשפחה מתרחש מוות בעריסה, צריך להכניס אותה לקבוצה בסיכון גבוה.
16:17
They've probably got these environmental risk factors
315
977000
2000
קרוב לודאי שיש לה גורמי סיכון סביבתיים
16:19
and/or genetic risk factors we don't know about.
316
979000
3000
ו/או גורמי סיכון גנטיים שאנחנו לא מכירים.
16:22
And to argue, then, that the chance of a second death is as if you didn't know
317
982000
3000
ולכן, הטענה שהסיכוי למוות שני במשפחה זהה למקרה בו
16:25
that information is really silly.
318
985000
3000
הנתונים לא ידועים - היא מטופשת ביותר.
16:28
It's worse than silly -- it's really bad science.
319
988000
4000
ויותר ממטופשת -- זהו מדע גרוע ביותר.
16:32
Nonetheless, that's how it was presented, and at trial nobody even argued it.
320
992000
5000
ובכל זאת, זו הדרך בה העניין הוצג, ובבית המשפט אף אחד לא ניסה לטעון נגדו.
16:37
That's the first problem.
321
997000
2000
זוהי הבעיה הראשונה.
16:39
The second problem is, what does the number of one in 73 million mean?
322
999000
4000
הבעיה השניה היא, מה המשמעות של 1 ל-73 מיליון?
16:43
So after Sally Clark was convicted --
323
1003000
2000
אחרי שסאלי קלארק הורשעה,
16:45
you can imagine, it made rather a splash in the press --
324
1005000
4000
אתם יכולים לתאר לעצמכם שהיה רעש גדול בתקשורת.
16:49
one of the journalists from one of Britain's more reputable newspapers wrote that
325
1009000
7000
אחד מהעיתונאים מאחד העיתונים המוערכים יותר בבריטניה כתב
16:56
what the expert had said was,
326
1016000
2000
שמה שהמומחה אמר הוא,
16:58
"The chance that she was innocent was one in 73 million."
327
1018000
5000
ש"הסיכוי שהיא חפה מפשע הוא 1 ל-73 מיליון."
17:03
Now, that's a logical error.
328
1023000
2000
זוהי טעות לוגית.
17:05
It's exactly the same logical error as the logical error of thinking that
329
1025000
3000
זוהי אותה טעות לוגית כמו הטעות לחשוב
17:08
after the disease test, which is 99 percent accurate,
330
1028000
2000
שאחרי הבדיקה למחלה, שמדוייקת ב-99 אחוז,
17:10
the chance of having the disease is 99 percent.
331
1030000
4000
הסיכוי לחלות הוא 99 אחוז.
17:14
In the disease example, we had to bear in mind two things,
332
1034000
4000
בדוגמא של המחלה, היינו צריכים לזכור שני דברים,
17:18
one of which was the possibility that the test got it right or not.
333
1038000
4000
הראשון הוא האפשרות שהבדיקה הייתה תקינה או לא תקינה.
17:22
And the other one was the chance, a priori, that the person had the disease or not.
334
1042000
4000
והשני הוא הסיכוי, א-פריורי, שהאדם חולה או בריא.
17:26
It's exactly the same in this context.
335
1046000
3000
זה בדיוק אותו דבר בהקשר הזה.
17:29
There are two things involved -- two parts to the explanation.
336
1049000
4000
יש שני דברים מעורבים -- שני חלקים להסבר.
17:33
We want to know how likely, or relatively how likely, two different explanations are.
337
1053000
4000
אנחנו רוצים לדעת מה הסיכוי, או מה הסיכוי היחסי של שני הסברים אפשריים.
17:37
One of them is that Sally Clark was innocent --
338
1057000
3000
ההסבר הראשון הוא שסאלי קלארק חפה מפשע --
17:40
which is, a priori, overwhelmingly likely --
339
1060000
2000
שלו יש, א-פריורי, סיכוי גבוה מאוד -
17:42
most mothers don't kill their children.
340
1062000
3000
רוב האמהות לא הורגות את הילדים שלהן.
17:45
And the second part of the explanation
341
1065000
2000
החלק השני של ההסבר
17:47
is that she suffered an incredibly unlikely event.
342
1067000
3000
הוא שהיא סבלה ממקרה עם סבירות מאוד נמוכה.
17:50
Not as unlikely as one in 73 million, but nonetheless rather unlikely.
343
1070000
4000
לא סיכוי נמוך כמו 1 ל-73 מיליון, אבל בכל זאת בסבירות די נמוכה.
17:54
The other explanation is that she was guilty.
344
1074000
2000
ההסבר השני הוא שהיא אשמה.
17:56
Now, we probably think a priori that's unlikely.
345
1076000
2000
קרוב לודאי שאנחנו חושבים מלכתחילה שזה לא סביר.
17:58
And we certainly should think in the context of a criminal trial
346
1078000
3000
ודאי שאנחנו צריכים לחשוב בהקשר של משפט פלילי
18:01
that that's unlikely, because of the presumption of innocence.
347
1081000
3000
שיש לכך סיכוי נמוך, בגלל הנחת החפות מפשע.
18:04
And then if she were trying to kill the children, she succeeded.
348
1084000
4000
ושאם היא ניסתה להרוג את הילדים, היא הצליחה.
18:08
So the chance that she's innocent isn't one in 73 million.
349
1088000
4000
אם כך, הסיכוי שהיא חפה מפשע אינו 1 ל-73 מיליון.
18:12
We don't know what it is.
350
1092000
2000
אנחנו לא יודעים מה הוא.
18:14
It has to do with weighing up the strength of the other evidence against her
351
1094000
4000
צריך לקחת בחשבון את חוזק הראיות האחרות נגדה
18:18
and the statistical evidence.
352
1098000
2000
ואת הראיות הסטטיסטיות.
18:20
We know the children died.
353
1100000
2000
אנחנו יודעים שהילדים מתו.
18:22
What matters is how likely or unlikely, relative to each other,
354
1102000
4000
מה שחשוב זה מה הסבירות או אי-הסבירות של שני ההסברים
18:26
the two explanations are.
355
1106000
2000
ביחס זה לזה.
18:28
And they're both implausible.
356
1108000
2000
ושניהם בלתי סבירים.
18:31
There's a situation where errors in statistics had really profound
357
1111000
4000
זהו מקרה בו ההשלכות של טעויות בסטטיסטיקה
18:35
and really unfortunate consequences.
358
1115000
3000
חמורות ביותר ומצערות ביותר.
18:38
In fact, there are two other women who were convicted on the basis of the
359
1118000
2000
למעשה, שתי נשים נוספות הורשעו על בסיס
18:40
evidence of this pediatrician, who have subsequently been released on appeal.
360
1120000
4000
העדות של רופא הילדים הזה, ושוחררו לאחר ערעור.
18:44
Many cases were reviewed.
361
1124000
2000
מקרים רבים נבחנו מחדש.
18:46
And it's particularly topical because he's currently facing a disrepute charge
362
1126000
4000
וזה מאוד אקטואלי כי עכשיו הוא עומד בפני תביעת הוצאת שם רע
18:50
at Britain's General Medical Council.
363
1130000
3000
במועצה הרפואית הכללית בבריטניה.
18:53
So just to conclude -- what are the take-home messages from this?
364
1133000
4000
וכדי לסכם - מה המסר שתקחו אתכם הביתה?
18:57
Well, we know that randomness and uncertainty and chance
365
1137000
4000
אנחנו יודעים שאקראיות, וחוסר ודאות, וסיכוי
19:01
are very much a part of our everyday life.
366
1141000
3000
הם חלק בלתי נפרד מחיי היום יום שלנו.
19:04
It's also true -- and, although, you, as a collective, are very special in many ways,
367
1144000
5000
בנוסף, למרות שאתם, ככלל, מיוחדים מאוד בדרכים רבות,
19:09
you're completely typical in not getting the examples I gave right.
368
1149000
4000
אתם אופייניים מאוד שלא פתרתם את הדוגמאות שלי בצורה נכונה.
19:13
It's very well documented that people get things wrong.
369
1153000
3000
ישנו תעוד רחב היקף לכך שאנשים טועים.
19:16
They make errors of logic in reasoning with uncertainty.
370
1156000
3000
הם מבצעים שגיאות לוגיות בזמן הסקת מסקנות בתנאי חוסר ודאות.
19:20
We can cope with the subtleties of language brilliantly --
371
1160000
2000
אנחנו יכולים להתמודד עם הדקויות של השפה באופן מזהיר --
19:22
and there are interesting evolutionary questions about how we got here.
372
1162000
3000
וישנן שאלות אבולוציוניות מעניינות על איך הגענו לכאן.
19:25
We are not good at reasoning with uncertainty.
373
1165000
3000
אנחנו לא מוצלחים בהסקת מסקנות בתנאי חוסר ודאות.
19:28
That's an issue in our everyday lives.
374
1168000
2000
זהו נושא שקיים בחיי היום יום שלנו.
19:30
As you've heard from many of the talks, statistics underpins an enormous amount
375
1170000
3000
כפי ששמעתם בהרצאות רבות, הסטטיסטיקה מהווה בסיס לכמות עצומה
19:33
of research in science -- in social science, in medicine
376
1173000
3000
של מחקרים מדעיים -- במדעי החברה, ברפואה,
19:36
and indeed, quite a lot of industry.
377
1176000
2000
ולמעשה, בתחומים תעשייתיים רבים.
19:38
All of quality control, which has had a major impact on industrial processing,
378
1178000
4000
כל בקרת האיכות, שהיא בעלת השפעה מכרעת על תהליכים תעשייתיים,
19:42
is underpinned by statistics.
379
1182000
2000
מבוססת על סטטיסטיקה.
19:44
It's something we're bad at doing.
380
1184000
2000
וזה משהו שאנחנו גרועים בביצוע שלו.
19:46
At the very least, we should recognize that, and we tend not to.
381
1186000
3000
לכל הפחות, עלינו להכיר בכך, ואנחנו נוטים לא לעשות זאת.
19:49
To go back to the legal context, at the Sally Clark trial
382
1189000
4000
ואם נחזור להקשר המשפטי, במשפט של סאלי קלארק
19:53
all of the lawyers just accepted what the expert said.
383
1193000
4000
כל עורכי הדין פשוט קיבלו את מה שהמומחה אמר.
19:57
So if a pediatrician had come out and said to a jury,
384
1197000
2000
וכך, אם רופא ילדים היה אומר לחבר המושבעים,
19:59
"I know how to build bridges. I've built one down the road.
385
1199000
3000
"אני יודע לבנות גשרים. בניתי אחד במורד הדרך.
20:02
Please drive your car home over it,"
386
1202000
2000
אני מבקש שתסעו עליו בדרככם הביתה,"
20:04
they would have said, "Well, pediatricians don't know how to build bridges.
387
1204000
2000
הם היו אומרים, "ובכן, רופאי ילדים לא יודעים לבנות גשרים.
20:06
That's what engineers do."
388
1206000
2000
זהו תפקידם של המהנדסים."
20:08
On the other hand, he came out and effectively said, or implied,
389
1208000
3000
ומצד שני, השתמע מדבריו שהוא אומר,
20:11
"I know how to reason with uncertainty. I know how to do statistics."
390
1211000
3000
"אני יודע איך להסיק מסקנות בתנאי חוסר ודאות. אני יודע איך עושים סטטיסטיקה.
20:14
And everyone said, "Well, that's fine. He's an expert."
391
1214000
3000
וכולם אמרו, "בסדר גמור. הוא מומחה."
20:17
So we need to understand where our competence is and isn't.
392
1217000
3000
אנחנו חייבים להבין באיזה תחומים יש לנו יכולת ובאיזה לא.
20:20
Exactly the same kinds of issues arose in the early days of DNA profiling,
393
1220000
4000
אותם נושאים התעוררו בתחילת הדרך של שימוש בפרופילים גנטיים,
20:24
when scientists, and lawyers and in some cases judges,
394
1224000
4000
כאשר מדענים ועורכי דין ובמקרים מסויימים שופטים,
20:28
routinely misrepresented evidence.
395
1228000
3000
נהגו להציג ראיות בצורה מסולפת.
20:32
Usually -- one hopes -- innocently, but misrepresented evidence.
396
1232000
3000
בדרך כלל, יש לקוות, בתום לב, אבל הראיות הוצגו בצורה מסולפת.
20:35
Forensic scientists said, "The chance that this guy's innocent is one in three million."
397
1235000
5000
מדעני זיהוי פלילי אמרו, "הסיכוי שהבחור הזה חף מפשע הוא 1 ל-3 מיליון.
20:40
Even if you believe the number, just like the 73 million to one,
398
1240000
2000
וגם אם אתם מאמינים למספר הזה, כמו ל-73 מיליון ל-1,
20:42
that's not what it meant.
399
1242000
2000
זאת לא המשמעות שלו.
20:44
And there have been celebrated appeal cases
400
1244000
2000
והיו ערעורים מפורסמים
20:46
in Britain and elsewhere because of that.
401
1246000
2000
בבריטניה ובמקומות אחרים מהסיבה הזאת.
20:48
And just to finish in the context of the legal system.
402
1248000
3000
וכדי לסיים בהקשר של המערכת המשפטית.
20:51
It's all very well to say, "Let's do our best to present the evidence."
403
1251000
4000
זה יפה מאוד להגיד, "נעשה את מיטב יכולתנו בהצגת הראיות."
20:55
But more and more, in cases of DNA profiling -- this is another one --
404
1255000
3000
אבל יותר ויותר, במקרים של בניית פרופילים גנטיים -- זה דבר נוסף --
20:58
we expect juries, who are ordinary people --
405
1258000
3000
אנחנו מצפים מחבר המושבעים, שהם אנשים רגילים --
21:01
and it's documented they're very bad at this --
406
1261000
2000
וזה מתועד שהם מאוד גרועים בכך --
21:03
we expect juries to be able to cope with the sorts of reasoning that goes on.
407
1263000
4000
אנחנו מצפים שחבר המושבעים יהיה מסוגל להתמודד עם תהליך הסקת המסקנות שכרוך בכך.
21:07
In other spheres of life, if people argued -- well, except possibly for politics --
408
1267000
5000
בתחומי חיים אחרים, אם אנשים היו טוענים -- חוץ אולי מבפוליטיקה,
21:12
but in other spheres of life, if people argued illogically,
409
1272000
2000
אבל בתחומי חיים אחרים, אם אנשים היו טוענים בחוסר הגיון,
21:14
we'd say that's not a good thing.
410
1274000
2000
היינו אומרים שזה דבר גרוע.
21:16
We sort of expect it of politicians and don't hope for much more.
411
1276000
4000
אולי אנחנו מצפים לכך מפוליטיקאים - הציפיות שלנו מהם לא גבוהות.
21:20
In the case of uncertainty, we get it wrong all the time --
412
1280000
3000
במקרים של חוסר ודאות, אנחנו טועים כל הזמן --
21:23
and at the very least, we should be aware of that,
413
1283000
2000
ולכל הפחות, אנחנו צריכים להיות מודעים לכך.
21:25
and ideally, we might try and do something about it.
414
1285000
2000
ובאופן אידיאלי, גם לנסות לעשות משהו בקשר לכך.
21:27
Thanks very much.
415
1287000
1000
תודה רבה.
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7