Peter Donnelly: How stats fool juries

243,959 views ・ 2007-01-12

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Anwar Dafa-Alla المدقّق: Ibrahim Musa
00:25
As other speakers have said, it's a rather daunting experience --
0
25000
2000
كما قال المتحدثون الآخرون، إنها تجربة شاقة..
00:27
a particularly daunting experience -- to be speaking in front of this audience.
1
27000
3000
تجربة شاقة بالتحديد... التحدث أمام هذا الجمهور.
00:30
But unlike the other speakers, I'm not going to tell you about
2
30000
3000
لكن على خلاف المتحدثون الآخرون، أنا لن أحدثكم عن
00:33
the mysteries of the universe, or the wonders of evolution,
3
33000
2000
أسرار الكون، أو عجائب التطور،
00:35
or the really clever, innovative ways people are attacking
4
35000
4000
أو الطرق الذكية جداً والمبتكرة التي يهاجم بها الناس
00:39
the major inequalities in our world.
5
39000
2000
عدم المساواة الكبرى في عالمنا.
00:41
Or even the challenges of nation-states in the modern global economy.
6
41000
5000
أو حتى تحديات الدول القومية في الاقتصاد العالمي المعاصر.
00:46
My brief, as you've just heard, is to tell you about statistics --
7
46000
4000
اختصار حديثي، كما سمعتم للتو، هو أن أحدثكم عن الاحصائيات...
00:50
and, to be more precise, to tell you some exciting things about statistics.
8
50000
3000
ولكي أكون دقيقاً، أن أخبركم بأمور مشوقة عن الاحصائيات.
00:53
And that's --
9
53000
1000
وهذا...
00:54
(Laughter)
10
54000
1000
(ضحك)
00:55
-- that's rather more challenging
11
55000
2000
في الواقع هذا تحدٍ أكبر
00:57
than all the speakers before me and all the ones coming after me.
12
57000
2000
من تحدي كل من سبقني من المتحدثين وكل من سيأتي بعدي.
00:59
(Laughter)
13
59000
1000
(ضحك)
01:01
One of my senior colleagues told me, when I was a youngster in this profession,
14
61000
5000
حدثني أحد زملائي القدماء في المهنة، بأنه عندما كنت مبتدئاً في المهنة،
01:06
rather proudly, that statisticians were people who liked figures
15
66000
4000
لكن بفخر، بأن مختصي الاحصاء هم أشخاص أحبوا الأرقام
01:10
but didn't have the personality skills to become accountants.
16
70000
3000
لكن لم يملكوا المهارات الشخصية اللازمة ليصبحوا محاسبين.
01:13
(Laughter)
17
73000
2000
(ضحك)
01:15
And there's another in-joke among statisticians, and that's,
18
75000
3000
وهنالك دعابة أخرى بين مختصي الاحصاء، وهي،
01:18
"How do you tell the introverted statistician from the extroverted statistician?"
19
78000
3000
كيف تميز مختص الاحصاء المنطوي عن المتفتح؟
01:21
To which the answer is,
20
81000
2000
والجواب هو:
01:23
"The extroverted statistician's the one who looks at the other person's shoes."
21
83000
5000
أخصائي الاحصاء المتفتح هو الذي ينظر إلى حذاء الشخص الآخر.
01:28
(Laughter)
22
88000
3000
(ضحك)
01:31
But I want to tell you something useful -- and here it is, so concentrate now.
23
91000
5000
لكني أريد إخباركم بشيء مفيد... وها هو، لذا ركزوا الآن.
01:36
This evening, there's a reception in the University's Museum of Natural History.
24
96000
3000
في هذه الليلة، يوجد حفل استقبال في متحف الجامعة للتاريخ الطبيعي.
01:39
And it's a wonderful setting, as I hope you'll find,
25
99000
2000
وهو عرض رائع، كما أتمنى أن تجدوه،
01:41
and a great icon to the best of the Victorian tradition.
26
101000
5000
ورمز رائع لأفضل ما لدى التقليد الفيكتوري.
01:46
It's very unlikely -- in this special setting, and this collection of people --
27
106000
5000
إنه احتمال بعيد.. في هذا العرض المميز، وهذه المجموعة من الأشخاص..
01:51
but you might just find yourself talking to someone you'd rather wish that you weren't.
28
111000
3000
لكنك قد تجد نفسك تتحدث إلى شخص تتمنى على الأغلب أنك لم تفعل ذلك.
01:54
So here's what you do.
29
114000
2000
لذلك هذا ما تفعله.
01:56
When they say to you, "What do you do?" -- you say, "I'm a statistician."
30
116000
4000
عندما يقولوا لك: "ما هو عملك؟".. تقول: "أنا مختص إحصاء."
02:00
(Laughter)
31
120000
1000
(ضحك)
02:01
Well, except they've been pre-warned now, and they'll know you're making it up.
32
121000
4000
حسناً، عدا أنهم الآن تم تحذيرهم، وسيعلمون بأنك تختلق ذلك.
02:05
And then one of two things will happen.
33
125000
2000
وبعدها يحدث أحد أمرين.
02:07
They'll either discover their long-lost cousin in the other corner of the room
34
127000
2000
إما أنهم سيكتشفون قريبهم الضائع منذ زمن في ناصية الغرفة
02:09
and run over and talk to them.
35
129000
2000
ويتخطون الناس ويتحدثوا إليهم.
02:11
Or they'll suddenly become parched and/or hungry -- and often both --
36
131000
3000
أو أنهم يشعرون فجأة بالعطش و/أو الجوع.. وغالباً كلاهما..
02:14
and sprint off for a drink and some food.
37
134000
2000
ويجرون للحصول على شراب أو بعض الطعام.
02:16
And you'll be left in peace to talk to the person you really want to talk to.
38
136000
4000
وسيتم تركك للتحدث إلى الشخص الذي تود فعلاً التحدث إليه بسلام.
02:20
It's one of the challenges in our profession to try and explain what we do.
39
140000
3000
إنها إحدى التحديات في مهنتنا: محاولة شرح ما نقوم به.
02:23
We're not top on people's lists for dinner party guests and conversations and so on.
40
143000
5000
نحن لسنا في أعلى قوائم الناس لضيوف حفلات العشاء والمحادثات وهكذا.
02:28
And it's something I've never really found a good way of doing.
41
148000
2000
وهو شيء لم أستطع بعد إيجاد طريقة جيدة للقيام به.
02:30
But my wife -- who was then my girlfriend --
42
150000
3000
لكن زوجتي -التي كانت حينها صديقتي-
02:33
managed it much better than I've ever been able to.
43
153000
3000
تدبرت ذلك بطريقة أفضل مما أستطعت أن أقوم به على الاطلاق.
02:36
Many years ago, when we first started going out, she was working for the BBC in Britain,
44
156000
3000
قبل عدة سنوات، عنما بدأنا التواعد للخروج، كانت تعمل لدى ال BBC في بريطانيا،
02:39
and I was, at that stage, working in America.
45
159000
2000
وكنت أنا، في تلك المرحلة، أعمل في أميريكا.
02:41
I was coming back to visit her.
46
161000
2000
وكنت قادماً لزيارتها.
02:43
She told this to one of her colleagues, who said, "Well, what does your boyfriend do?"
47
163000
6000
وقالت ذلك لأحد زملائها الذي قال: "حسناً، ما هو عمل صديقك؟"
02:49
Sarah thought quite hard about the things I'd explained --
48
169000
2000
ففكرت ساره ملياً فيما كنت قد شرحت لها..
02:51
and she concentrated, in those days, on listening.
49
171000
4000
وكانت تركز في تلك الأيام على الاستماع.
02:55
(Laughter)
50
175000
2000
(ضحك)
02:58
Don't tell her I said that.
51
178000
2000
لا تقولوا لها بأنني قلت هذا.
03:00
And she was thinking about the work I did developing mathematical models
52
180000
4000
وكانت تفكر في العمل الذي كنت أقوم به لتطوير نماذج رياضية
03:04
for understanding evolution and modern genetics.
53
184000
3000
لفهم التطور والوراثة الحديثة.
03:07
So when her colleague said, "What does he do?"
54
187000
3000
لذا عندما سألها زميلها: "ما هو عمله؟"
03:10
She paused and said, "He models things."
55
190000
4000
توقفت ثم قالت: "إنه يضع نماذجاً لأشياء."
03:14
(Laughter)
56
194000
1000
(ضحك)
03:15
Well, her colleague suddenly got much more interested than I had any right to expect
57
195000
4000
حسناً، أصبح زميلها فجأة مهتماً أكثر بكثير مما توقعت
03:19
and went on and said, "What does he model?"
58
199000
3000
وواصل ليقول: "يضع نماذجاً لماذا؟"
03:22
Well, Sarah thought a little bit more about my work and said, "Genes."
59
202000
3000
لذا، فكرت ساره أكثر قليلاً بعملي وقالت: "جينات."
03:25
(Laughter)
60
205000
4000
(ضحك)
03:29
"He models genes."
61
209000
2000
"إنه يضع نماذجاً للجينات."
03:31
That is my first love, and that's what I'll tell you a little bit about.
62
211000
4000
كان هذا حبي الأول، وهذا ما سأحدثكم عنه قليلاً.
03:35
What I want to do more generally is to get you thinking about
63
215000
4000
وما أريد أن أفعله بصورة أعم هو جعلكم تفكرون
03:39
the place of uncertainty and randomness and chance in our world,
64
219000
3000
بموقع الشك والعشوائية والصدفة في عالمنا،
03:42
and how we react to that, and how well we do or don't think about it.
65
222000
5000
وكيف نتفاعل مع ذلك، ومدى حسن تفكيرنا أو عدم تفكيرنا به.
03:47
So you've had a pretty easy time up till now --
66
227000
2000
إذاً لقد حصلتم على وقت سهل لحد الآن..
03:49
a few laughs, and all that kind of thing -- in the talks to date.
67
229000
2000
بعض الضحكات، وكل ما شابهها.. في المحادثات لغاية الآن.
03:51
You've got to think, and I'm going to ask you some questions.
68
231000
3000
عليكم أن تفكروا، وسأقوم بطرح بعض الأسئلة عليكم.
03:54
So here's the scene for the first question I'm going to ask you.
69
234000
2000
إذاً هذا هو المكان لطرح السؤال الأول عليكم.
03:56
Can you imagine tossing a coin successively?
70
236000
3000
هل تستطيعون تخيل رمي قطعة نقود على التوالي؟
03:59
And for some reason -- which shall remain rather vague --
71
239000
3000
ولسبب ما -والذي سوف يبقى في الواقع غامضاً..
04:02
we're interested in a particular pattern.
72
242000
2000
نحن مهتمون بنمط معين.
04:04
Here's one -- a head, followed by a tail, followed by a tail.
73
244000
3000
هذه واحدة.. صورة-كتابة-كتابة.
04:07
So suppose we toss a coin repeatedly.
74
247000
3000
إذاً افترض أننا نرمي قطعة النقد مع التكرار.
04:10
Then the pattern, head-tail-tail, that we've suddenly become fixated with happens here.
75
250000
5000
وبعدها يحدث هنا النمط، صورة كتابة كتابة، الذي أصبحنا فجأة مهتمين به.
04:15
And you can count: one, two, three, four, five, six, seven, eight, nine, 10 --
76
255000
4000
وتستطيع العد: واحد، اثنان، ثلاثة، أربعة، خمسة، ستة، سبعة، ثمانية، تسعة، عشرة..
04:19
it happens after the 10th toss.
77
259000
2000
يحدث بعد الرمية العاشرة.
04:21
So you might think there are more interesting things to do, but humor me for the moment.
78
261000
3000
إذاً قد تعتقدون بأن هنالك أشياء مشوقة أكثر للقيام بها، لكن تماشوا معي حالياً.
04:24
Imagine this half of the audience each get out coins, and they toss them
79
264000
4000
تخيلوا هذا النصف من الجمهور يخرج كل منهم قطعة نقد، ويرمونها
04:28
until they first see the pattern head-tail-tail.
80
268000
3000
إلى أن يروا النمط صورة-كتابة-كتابة.
04:31
The first time they do it, maybe it happens after the 10th toss, as here.
81
271000
2000
في أول مرة يفعلون ذلك، قد يحدث ذلك النمط بعد الرمية العاشرة، كما هو هنا.
04:33
The second time, maybe it's after the fourth toss.
82
273000
2000
في المرة الثانية، قد يحدث بعد الرمية الرابعة.
04:35
The next time, after the 15th toss.
83
275000
2000
في المرة التي تليها، بعد الرمية ال 15.
04:37
So you do that lots and lots of times, and you average those numbers.
84
277000
3000
إذا تفعلون ذلك مرات كثيرة، وتأخذ متوسط هذه الأرقام.
04:40
That's what I want this side to think about.
85
280000
3000
هذا ما أريد هذا الجانب من الحضور أن يفكر به.
04:43
The other half of the audience doesn't like head-tail-tail --
86
283000
2000
لا يحب الجانب الآخر من الحضور نمط الصورة-كتابة-كتابة..
04:45
they think, for deep cultural reasons, that's boring --
87
285000
3000
إنهم يفكرون، لأسباب ثقافية عميقة، هذا ممل..
04:48
and they're much more interested in a different pattern -- head-tail-head.
88
288000
3000
وهم مهتمون أكثر بكثير بنمط آخر.. صورة-كتابة-صورة.
04:51
So, on this side, you get out your coins, and you toss and toss and toss.
89
291000
3000
إذاً، في هذا الجانب، تخرجون قطعكم النقدية، وترمون وترمون وترمون.
04:54
And you count the number of times until the pattern head-tail-head appears
90
294000
3000
وتحسبون عدد المرات إلى أن يظهر نمط صورة-كتابة-صورة
04:57
and you average them. OK?
91
297000
3000
وتأخذون المتوسط. حسناً؟
05:00
So on this side, you've got a number --
92
300000
2000
إذا في هذا الجانب، لقد حصلتم على عدد..
05:02
you've done it lots of times, so you get it accurately --
93
302000
2000
لقد قمتم بذلك عدد كبير من المرات، لذا تحصلون عليه بدقة..
05:04
which is the average number of tosses until head-tail-tail.
94
304000
3000
وهو متوسط عدد الرميات إلى أن يظهر النمط صورة-كتابة-كتابة.
05:07
On this side, you've got a number -- the average number of tosses until head-tail-head.
95
307000
4000
في هذا الجانب، لقد حصلتم على رقم... متوسط عدد الرميات إلى أن حصلتم على النمط صورة-كتابة-صورة.
05:11
So here's a deep mathematical fact --
96
311000
2000
إذاً إليكم حقيقة رياضية عميقة..
05:13
if you've got two numbers, one of three things must be true.
97
313000
3000
إذا كان لديكم رقمين، واحد من ثلاثة أشياء يجب أن يكون صحيحاً.
05:16
Either they're the same, or this one's bigger than this one,
98
316000
3000
أن يكونا نفس الرقم، أو هذا الرقم أكبر من هذا الرقم،
05:19
or this one's bigger than that one.
99
319000
1000
أو هذا الرقم أكبر من ذاك.
05:20
So what's going on here?
100
320000
3000
إذا ما الذي يحدث هنا؟
05:23
So you've all got to think about this, and you've all got to vote --
101
323000
2000
إذا يجب عليكم جميعاً التفكير بهذا، ويجب عليكم جميعاً التصويت..
05:25
and we're not moving on.
102
325000
1000
ونحن لا نتقدم.
05:26
And I don't want to end up in the two-minute silence
103
326000
2000
ولا أريد أن أنهي بدقيقتي صمت
05:28
to give you more time to think about it, until everyone's expressed a view. OK.
104
328000
4000
لأعطيكم وقت أكثر للتفكير، إلى أن يكون الجميع صورة. حسناً.
05:32
So what you want to do is compare the average number of tosses until we first see
105
332000
4000
إذاً ما ستفعلونه هو مقارنة متوسط عدد الرميات إلى أن رأينا
05:36
head-tail-head with the average number of tosses until we first see head-tail-tail.
106
336000
4000
صورة-كتابة-صورة مع متوسط عدد الرميات إلى أن رأينا صورة-كتابة-كتابة.
05:41
Who thinks that A is true --
107
341000
2000
من يظن بأن "أ" هي الإجابة الصحيحة..
05:43
that, on average, it'll take longer to see head-tail-head than head-tail-tail?
108
343000
4000
أنه، بالمتوسط، سأستغرق وقتاٍ أطول لأحصل على صورة-كتابة-صورة من وقت الحصول على صورة-كتابة-كتابة؟
05:47
Who thinks that B is true -- that on average, they're the same?
109
347000
3000
من يظن بأن "ب" هي الإجابة الصحيحة.. بالمتوسط، سيستغرقان نفس الوقت؟
05:51
Who thinks that C is true -- that, on average, it'll take less time
110
351000
2000
من يظن بأن "ج" هي الإجابة الصحيحة.. بأنه، بالمتوسط، سأستغرق وقتاٍ أقل
05:53
to see head-tail-head than head-tail-tail?
111
353000
3000
للحصول على صورة-كتابة-صورة من وقت الحصول على صورة-كتابة-كتابة؟
05:57
OK, who hasn't voted yet? Because that's really naughty -- I said you had to.
112
357000
3000
حسناً، من لم يصوت بعد؟ لأن هذا سلوك سيء.. قلت بأنه يجب عليكم التصويت.
06:00
(Laughter)
113
360000
1000
(ضحك)
06:02
OK. So most people think B is true.
114
362000
3000
حسناً. إذاً معظم الناس يعتقدون بأن "ج" هي الإجابة الصحيحة.
06:05
And you might be relieved to know even rather distinguished mathematicians think that.
115
365000
3000
وقد تشعرون بالارتياح عندما تعلمون بأنه حتى الرياضيون المتميزون في الواقع يعتقدون ذلك.
06:08
It's not. A is true here.
116
368000
4000
إنها ليست كذلك. "أ" هي الإجابة الصحيحة.
06:12
It takes longer, on average.
117
372000
2000
تحتاج لوقت أطول، في المتوسط.
06:14
In fact, the average number of tosses till head-tail-head is 10
118
374000
2000
في الحقيقة، متوسط عدد الرميات إلى أن نحصل على صورة-كتابة-صورة هو 10
06:16
and the average number of tosses until head-tail-tail is eight.
119
376000
5000
ومتوسط عدد الرميات للحصول على صورة-كتابة-كتابة هو 8.
06:21
How could that be?
120
381000
2000
كيف يمكن أن يكون ذلك؟
06:24
Anything different about the two patterns?
121
384000
3000
هل من فرق بين النمطين؟
06:30
There is. Head-tail-head overlaps itself.
122
390000
5000
يوجد فرق. صورة-كتابة-صورة تتداخل مع بعضها.
06:35
If you went head-tail-head-tail-head, you can cunningly get two occurrences
123
395000
4000
إذا أردتم صورة-كتابة-صورة-كتابة-صورة، تستطيعون الحصول ببراعة مرتان
06:39
of the pattern in only five tosses.
124
399000
3000
على ذلك النمط في 5 رميات فقط.
06:42
You can't do that with head-tail-tail.
125
402000
2000
لا تستطيعون فعل ذلك فيما يخص النمط صورة-كتابة-كتابة.
06:44
That turns out to be important.
126
404000
2000
تبين أن ذلك مهم.
06:46
There are two ways of thinking about this.
127
406000
2000
توجد طريقتان للتفكير بهذا.
06:48
I'll give you one of them.
128
408000
2000
سأقول لكم عن إحداها.
06:50
So imagine -- let's suppose we're doing it.
129
410000
2000
إذاً تخيلوا معي.. فلنفترض بأننا نقوم بذلك.
06:52
On this side -- remember, you're excited about head-tail-tail;
130
412000
2000
في هذا الجانب.. تذكروا، أنتم متحمسون للحصول على صورة-كتابة-كتابة،
06:54
you're excited about head-tail-head.
131
414000
2000
وأنتم متحمسون ل صورة-كتابة-كتابة.
06:56
We start tossing a coin, and we get a head --
132
416000
3000
نبدأ برمي قطعة النقد، فنحصل على صورة..
06:59
and you start sitting on the edge of your seat
133
419000
1000
وتبدأون الجلوس على حافات الكراسي
07:00
because something great and wonderful, or awesome, might be about to happen.
134
420000
5000
لأن شيئاً عظيماً ورائعاً، أو مدهشاً قد يكون على وشك الحصول.
07:05
The next toss is a tail -- you get really excited.
135
425000
2000
الرمية التالية تعطي كتابة.. تصبحون متحمسين حقاً.
07:07
The champagne's on ice just next to you; you've got the glasses chilled to celebrate.
136
427000
4000
الشمبانيا في الثلج بجانبكم، ولديكم الأكواب مبردة للاحتفال.
07:11
You're waiting with bated breath for the final toss.
137
431000
2000
وتنتظرون بأنفاس ضيقة الرمية الأخيرة.
07:13
And if it comes down a head, that's great.
138
433000
2000
وإذا حصلنا على صورة، فهذا رائع.
07:15
You're done, and you celebrate.
139
435000
2000
لقد انتهيتم، فتحتفلون.
07:17
If it's a tail -- well, rather disappointedly, you put the glasses away
140
437000
2000
وإذا حصلتم على كتابة.. وبخيبة أمل، تضعون الكؤوس جانباً
07:19
and put the champagne back.
141
439000
2000
وتعيدون الشمبانيا إلى مكانها.
07:21
And you keep tossing, to wait for the next head, to get excited.
142
441000
3000
وتستمرون بالرمي، بانتظار الكتابة التالية، لتتحمسوا.
07:25
On this side, there's a different experience.
143
445000
2000
وفي هذا الجانب، توجد تجربة أخرى.
07:27
It's the same for the first two parts of the sequence.
144
447000
3000
أنها التجربة نفسها لأول جزئين من السلسلة.
07:30
You're a little bit excited with the first head --
145
450000
2000
أنتم متحمسون قليلاً مع الصورة الأولى..
07:32
you get rather more excited with the next tail.
146
452000
2000
لكن تشعرون بحماس أكبر مع الكتابة التالية.
07:34
Then you toss the coin.
147
454000
2000
ثم ترمون قطعة النقد.
07:36
If it's a tail, you crack open the champagne.
148
456000
3000
إذا كانت كتابة، تفتحون الشمبانيا.
07:39
If it's a head you're disappointed,
149
459000
2000
إذا كانت صورة، تشعرون بخيبة أمل،
07:41
but you're still a third of the way to your pattern again.
150
461000
3000
لكنكم لم يتبقى عليكم إلا ثلث الطرق للنمط الذي تريدونه.
07:44
And that's an informal way of presenting it -- that's why there's a difference.
151
464000
4000
وهذه طريقة غير رسمية لعرض ما يحصل... هذا هو سبب وجود الاختلاف.
07:48
Another way of thinking about it --
152
468000
2000
طريقة أخرى للتفكير بذلك..
07:50
if we tossed a coin eight million times,
153
470000
2000
إذا رمينا قطعة النقد 8 مليون مرة،
07:52
then we'd expect a million head-tail-heads
154
472000
2000
فسنتوقع مليون صورة-كتابة-صورة
07:54
and a million head-tail-tails -- but the head-tail-heads could occur in clumps.
155
474000
7000
ومليون صورة-كتابة-كتابة... لكن النمط صورة-كتابة-صورة تحدث على شكل تجمعات.
08:01
So if you want to put a million things down amongst eight million positions
156
481000
2000
وإذا أردتم توزيع مليون شيء بين 8 مليون موقع
08:03
and you can have some of them overlapping, the clumps will be further apart.
157
483000
5000
ويمكن وجود بعضها متداخلة، ستكون التجمعات متباعدة.
08:08
It's another way of getting the intuition.
158
488000
2000
إنها طريقة أخرى بديهية لفهم ذلك.
08:10
What's the point I want to make?
159
490000
2000
ما هي الفكرة التي أحاول إيصالها؟
08:12
It's a very, very simple example, an easily stated question in probability,
160
492000
4000
إنه مثال بسيط جداً وسؤال في الاحتمالات مصاغ بطريقة سهلة،
08:16
which every -- you're in good company -- everybody gets wrong.
161
496000
3000
والذي جميع... اذا كانت لديك رفقة جيدة... يفهمه الجميع بطريقة خاطئة.
08:19
This is my little diversion into my real passion, which is genetics.
162
499000
4000
هذا هو التحول الصغير الذي قمت به باتجاه شغفي الحقيقي وهو علم الوراثة.
08:23
There's a connection between head-tail-heads and head-tail-tails in genetics,
163
503000
3000
هناك علاقة بين صورة-كتابة-صورة و صورة-كتابة-كتابة في علم الجينات،
08:26
and it's the following.
164
506000
3000
وهي كالتالي.
08:29
When you toss a coin, you get a sequence of heads and tails.
165
509000
3000
عندما ترمي العملة، تحصل على سلسلة من الصور والكتابة.
08:32
When you look at DNA, there's a sequence of not two things -- heads and tails --
166
512000
3000
وعندما تنظر إلى الحمض النووي (DNA)، هناك سلسلة ليست لشيئين فقط -- صور وكتابة--
08:35
but four letters -- As, Gs, Cs and Ts.
167
515000
3000
بل أربعة أحرف -- "أ"، "ج"، "س" و "ت".
08:38
And there are little chemical scissors, called restriction enzymes
168
518000
3000
وهناك مقصات كيميائية صغيرة، تسمى إنزيمات تقييد الحمض النووي
08:41
which cut DNA whenever they see particular patterns.
169
521000
2000
التي تقطع الحمض النووي وقتما ترى نمطاً معيناً.
08:43
And they're an enormously useful tool in modern molecular biology.
170
523000
4000
وهي أداة مفيدة للغاية في مجال البيولوجيا الجزيئية الحديثة.
08:48
And instead of asking the question, "How long until I see a head-tail-head?" --
171
528000
3000
وبدلا من طرح السؤال : "كيف يمر من الوقت حتى أرى صورة-كتابة -صورة؟" --
08:51
you can ask, "How big will the chunks be when I use a restriction enzyme
172
531000
3000
يمكن أن نسأل : "كيف سيتم القطع عندما أستخدم إنزيمات التقييد
08:54
which cuts whenever it sees G-A-A-G, for example?
173
534000
4000
التي تقطع كلما رأت "ج"-"أ"-"أ"-"ج"، على سبيل المثال؟
08:58
How long will those chunks be?"
174
538000
2000
كم سيكون طول القطع؟"
09:00
That's a rather trivial connection between probability and genetics.
175
540000
5000
تلك علاقة تافهة بين علم الإحتمالات وعلم الجينات.
09:05
There's a much deeper connection, which I don't have time to go into
176
545000
3000
هناك علاقة أكثر عمقاً، التي ليس لدي وقت للمرور عبرها
09:08
and that is that modern genetics is a really exciting area of science.
177
548000
3000
وهي أن علم الجينات الحديث هو بالفعل مجال مثير من العلوم.
09:11
And we'll hear some talks later in the conference specifically about that.
178
551000
4000
وسنستمع لبعض المحادثات لاحقاً في هذا المؤتمر خصيصاً حول ذلك.
09:15
But it turns out that unlocking the secrets in the information generated by modern
179
555000
4000
لكن وضح أن فك شفرة الأسرار في هذه المعلومات تم تنفيذها بواسطة تكنلوجيا
09:19
experimental technologies, a key part of that has to do with fairly sophisticated --
180
559000
5000
تجارب حديثة، جزء مهم من ذلك أن له علاقة متطورة إلى حد ما --
09:24
you'll be relieved to know that I do something useful in my day job,
181
564000
3000
ستستخلصون أنني أقوم بعمل مفيد خلال عملي اليومي،
09:27
rather more sophisticated than the head-tail-head story --
182
567000
2000
بل أكثر تعقيداً من قصة صورة-كتابة-صورة --
09:29
but quite sophisticated computer modelings and mathematical modelings
183
569000
4000
لكن نماذج كمبيوتر متطورة للغاية ونماذج رياضية
09:33
and modern statistical techniques.
184
573000
2000
وتقنيات الإحصاء الحديثة.
09:35
And I will give you two little snippets -- two examples --
185
575000
3000
وسأقدم لكم أثنتين من القصاصات الصغيرة -- مثالين --
09:38
of projects we're involved in in my group in Oxford,
186
578000
3000
لمشاريع كنا مشاركين بها في مجموعتي في جامعة أوكسفورد،
09:41
both of which I think are rather exciting.
187
581000
2000
أعتقد أن كلاهما مثير للغاية.
09:43
You know about the Human Genome Project.
188
583000
2000
تعرفون شيئاً عن مشروع الجينوم البشري.
09:45
That was a project which aimed to read one copy of the human genome.
189
585000
4000
كان ذلك مشروعاً يهدف لقراءة نسخة واحدة من الجينوم البشري.
09:51
The natural thing to do after you've done that --
190
591000
2000
الشئ الطبيعي لفعله بعد الإنتهاء من ذلك --
09:53
and that's what this project, the International HapMap Project,
191
593000
2000
وهذا ما كان شأن المشروع ، مشروع الهاب ماب العالمي(International HapMap Project)،
09:55
which is a collaboration between labs in five or six different countries.
192
595000
5000
الذي هو ثمرة تعاون بين مختبرات في خمسة أو ستة دول مختلفة.
10:00
Think of the Human Genome Project as learning what we've got in common,
193
600000
4000
فكروا بمشروع الجينوم البشري كتعلم ما نتشاركه جميعاً،
10:04
and the HapMap Project is trying to understand
194
604000
2000
ويحاول مشروع الهاب ماب فهم
10:06
where there are differences between different people.
195
606000
2000
أين هي الفروقات بين مختلف الناس.
10:08
Why do we care about that?
196
608000
2000
لماذا نهتم بشأن ذلك؟
10:10
Well, there are lots of reasons.
197
610000
2000
حسناً، هناك الكثير من الأسباب.
10:12
The most pressing one is that we want to understand how some differences
198
612000
4000
أكثرها إلحاحاً هو أننا نريد فهم كيف أن بعض الإختلافات
10:16
make some people susceptible to one disease -- type-2 diabetes, for example --
199
616000
4000
تجعل بعض الناس عرضة لمرض معين -- النوع 2 من مرض السكري، كمثال--
10:20
and other differences make people more susceptible to heart disease,
200
620000
5000
وإختلاف آخر يجعل الناس أكثر عرضة لمرض القلب،
10:25
or stroke, or autism and so on.
201
625000
2000
أو السكتة الدماغية، أو التوحد وهلمجرا.
10:27
That's one big project.
202
627000
2000
ذلك مشروع واحد ضخم.
10:29
There's a second big project,
203
629000
2000
هناك مشروع ثاني ضخم،
10:31
recently funded by the Wellcome Trust in this country,
204
631000
2000
مؤخراً تم تمويله بواسطة ولكم ترست في هذا البلد،
10:33
involving very large studies --
205
633000
2000
ويتضمن دراسات كبيرة جداً--
10:35
thousands of individuals, with each of eight different diseases,
206
635000
3000
آلالاف الأفراد، مع كل واحد ثمانية أمراض مختلفة،
10:38
common diseases like type-1 and type-2 diabetes, and coronary heart disease,
207
638000
4000
أمراض شائعة مثل مرض السكري النوع 1 والنوع 2، ومرض القلب التاجي،
10:42
bipolar disease and so on -- to try and understand the genetics.
208
642000
4000
مرض القطبين وهلمجرا-- لمحاولة فهم الجينات.
10:46
To try and understand what it is about genetic differences that causes the diseases.
209
646000
3000
لمحاولة وفهم ماهية الفوارق المختلفة التي تسبب الأمراض.
10:49
Why do we want to do that?
210
649000
2000
لماذا نريد فعل ذلك؟
10:51
Because we understand very little about most human diseases.
211
651000
3000
لأننا نفهم القليل جداً حول معظم الأمراض البشرية.
10:54
We don't know what causes them.
212
654000
2000
لا نعرف ما الذي يسببها.
10:56
And if we can get in at the bottom and understand the genetics,
213
656000
2000
إذا أستطعنا الوصول للقاع وفهم الجينات،
10:58
we'll have a window on the way the disease works,
214
658000
3000
سنحصل على نافذة على طريق عمل المرض.
11:01
and a whole new way about thinking about disease therapies
215
661000
2000
وطريقة جديدة كلياً حول التفكير حول علاج الأمراض
11:03
and preventative treatment and so on.
216
663000
3000
والعلاج الوقائي وهلمجرا.
11:06
So that's, as I said, the little diversion on my main love.
217
666000
3000
إذاً فذلك، كما قلت، تحوّل ضئيل من حبي الرئيسي.
11:09
Back to some of the more mundane issues of thinking about uncertainty.
218
669000
5000
بالعودة إلى قضايا دنيوية أكثر حول التفكير بعدم اليقين.
11:14
Here's another quiz for you --
219
674000
2000
ها هي مسألة أخرى لكم --
11:16
now suppose we've got a test for a disease
220
676000
2000
الآن افترضوا أننا تعرضنا لفحص مرض
11:18
which isn't infallible, but it's pretty good.
221
678000
2000
وارد فيه الخطأ، لكنه جيد.
11:20
It gets it right 99 percent of the time.
222
680000
3000
إنه يجيب بصورة صحيحة 99% من الوقت.
11:23
And I take one of you, or I take someone off the street,
223
683000
3000
وأجري إختبار عليك، أو أاخذ شخص ما من الشارع،
11:26
and I test them for the disease in question.
224
686000
2000
وأقوم باختبارهم للمرض مثار الحديث.
11:28
Let's suppose there's a test for HIV -- the virus that causes AIDS --
225
688000
4000
لنفرض أن هذا الإختبار لمرض نقص المناعة المكتسبة -- الفيروس الذي يسبب الإيدز--
11:32
and the test says the person has the disease.
226
692000
3000
ويقول الإختبار أن الشخص لديه المرض.
11:35
What's the chance that they do?
227
695000
3000
ما هو إحتمال أن لديه ذلك المرض؟
11:38
The test gets it right 99 percent of the time.
228
698000
2000
نتيجة الإختبار صحيحة 99% من الوقت.
11:40
So a natural answer is 99 percent.
229
700000
4000
إذاً فالاجابة الطبيعية هو 99%.
11:44
Who likes that answer?
230
704000
2000
من يفضّل ذلك الحل؟
11:46
Come on -- everyone's got to get involved.
231
706000
1000
هيا -- يجب أن يشارك الجميع.
11:47
Don't think you don't trust me anymore.
232
707000
2000
لا تفكروا أن لا تثقوا بي بعد الآن.
11:49
(Laughter)
233
709000
1000
(ضحك)
11:50
Well, you're right to be a bit skeptical, because that's not the answer.
234
710000
3000
حسناً، أنتم على حق لتكونوا متشككين قليلاً، لأن ذلك ليس هو الحل .
11:53
That's what you might think.
235
713000
2000
ذلك ما قد يُعتقد أنه الحل.
11:55
It's not the answer, and it's not because it's only part of the story.
236
715000
3000
إنه ليس الحل، وليس كذلك لأنه جزء فقط من القصة.
11:58
It actually depends on how common or how rare the disease is.
237
718000
3000
في الواقع إنه يعتمد على كم هو شائع أو نادر هذا المرض.
12:01
So let me try and illustrate that.
238
721000
2000
إذاً دعوني أوضح ذلك.
12:03
Here's a little caricature of a million individuals.
239
723000
4000
ها هي صورة كاركاترية لمليون شخص.
12:07
So let's think about a disease that affects --
240
727000
3000
إذاً لنفكر بالمرض الذي يصيب --
12:10
it's pretty rare, it affects one person in 10,000.
241
730000
2000
إنه نادر للغاية، إنه يصيب شخص واحد في كل 10،000.
12:12
Amongst these million individuals, most of them are healthy
242
732000
3000
ضمن هؤلاء المليون شخص، معظمهم بصحة جيدة
12:15
and some of them will have the disease.
243
735000
2000
وبعض منهم مصاب بالمرض.
12:17
And in fact, if this is the prevalence of the disease,
244
737000
3000
وفي الواقع، إذا كان هذا هو إنتشار المرض،
12:20
about 100 will have the disease and the rest won't.
245
740000
3000
حوالي 100 سيصابوا بالمرض والبقية لن يصابوا.
12:23
So now suppose we test them all.
246
743000
2000
الآن لنفترض أننا اختبرناهم جميعاً.
12:25
What happens?
247
745000
2000
ماذا يحدث؟
12:27
Well, amongst the 100 who do have the disease,
248
747000
2000
حسناً، بين ال 100 الذين لديهم المرض،
12:29
the test will get it right 99 percent of the time, and 99 will test positive.
249
749000
5000
سيكون الإختبار صحيحاً 99% من الوقت، و 99 سيكونوا مصابين.
12:34
Amongst all these other people who don't have the disease,
250
754000
2000
بين كل أؤلئك الناس الذين ليس لديهم المرض،
12:36
the test will get it right 99 percent of the time.
251
756000
3000
سيكون الإختبار صحيحاً 99% من الوقت.
12:39
It'll only get it wrong one percent of the time.
252
759000
2000
ستكون نتيجة الإختبار خاطئة 1% من الوقت.
12:41
But there are so many of them that there'll be an enormous number of false positives.
253
761000
4000
لكن هناك العديد منهم سيكون عدداً هائلاً من الأخطاء الإيجابية.
12:45
Put that another way --
254
765000
2000
ضع ذلك بطريقة أخرى --
12:47
of all of them who test positive -- so here they are, the individuals involved --
255
767000
5000
من كل من كانت نتيجتهم إيجابية -- إذا ها هم، الأفراد المشاركون --
12:52
less than one in 100 actually have the disease.
256
772000
5000
أقل من واحد في 100 في الواقع لديهم المرض.
12:57
So even though we think the test is accurate, the important part of the story is
257
777000
4000
إذاً رغماً عن اننا نعتقد أن الإختبار دقيق، فالجزء المهم في القصة هو
13:01
there's another bit of information we need.
258
781000
3000
أن هناك جزء آخر من المعلومات نحتاجه.
13:04
Here's the key intuition.
259
784000
2000
ها هي الفكرة المفتاحية.
13:07
What we have to do, once we know the test is positive,
260
787000
3000
ماذا ينبغي علينا فعله، بمجرد أن عرفنا أن الإختبار إيجابي
13:10
is to weigh up the plausibility, or the likelihood, of two competing explanations.
261
790000
6000
هو تقييم المعقول ظاهرياً، أو الإحتمال، لأثنين من التفسيرات المتعارضة.
13:16
Each of those explanations has a likely bit and an unlikely bit.
262
796000
3000
كلٌ من هذه التفسيرات لديها جزء محتمل وجزء غير محتمل.
13:19
One explanation is that the person doesn't have the disease --
263
799000
3000
أحد التفسيرات هو أن ذلك الشخص ليس لديه المرض--
13:22
that's overwhelmingly likely, if you pick someone at random --
264
802000
3000
وذلك مرجح بشدة، إذا قمت بإختيار شخص بصورة عشوائية --
13:25
but the test gets it wrong, which is unlikely.
265
805000
3000
لكن نتيجة الإختبار خاطئة، الذي هو غير مرجح.
13:29
The other explanation is that the person does have the disease -- that's unlikely --
266
809000
3000
والتفسير الآخر هو أن ذلك الشخص لديه المرض -- وهو غير مرجح--
13:32
but the test gets it right, which is likely.
267
812000
3000
لكن نتيجة الإختبار صحيحة، الذي هو مرجح.
13:35
And the number we end up with --
268
815000
2000
والرقم الذي سنصل إليه --
13:37
that number which is a little bit less than one in 100 --
269
817000
3000
ذلك الرقم الذي هو أقل بقليل عن واحد في 100 --
13:40
is to do with how likely one of those explanations is relative to the other.
270
820000
6000
له علاقة بمدى ترجيح تلك التفسيرات ونسبيتها إلى الأخرى.
13:46
Each of them taken together is unlikely.
271
826000
2000
عند أخذ كل واحد منهم مجتمعة يكون غير مرجح.
13:49
Here's a more topical example of exactly the same thing.
272
829000
3000
ها هو مثال موضوعي آخر لنفس الشئ بالضبط.
13:52
Those of you in Britain will know about what's become rather a celebrated case
273
832000
4000
أؤلئك منكم في بريطانيا يعلمون حول ما أصبحت قضية محتفى بها
13:56
of a woman called Sally Clark, who had two babies who died suddenly.
274
836000
5000
لإمرأة تسمى سالي كلارك، التي لديها طفلتان ماتوا فجأة.
14:01
And initially, it was thought that they died of what's known informally as "cot death,"
275
841000
4000
ومبدئياً، كان الظن أنهم ماتوا جراء ما يُعرف بشكل غير رسمي ب" موت المهد،"
14:05
and more formally as "Sudden Infant Death Syndrome."
276
845000
3000
وبشكل رسمي بمتلازمة موت الرُضع المفاجئ.
14:08
For various reasons, she was later charged with murder.
277
848000
2000
لأسباب متنوعة، تم إتهامها لاحقاً بالقتل.
14:10
And at the trial, her trial, a very distinguished pediatrician gave evidence
278
850000
4000
وفي المحاكمة، محاكمتها، قدم طبيب أطفال متميز جداً الدليل
14:14
that the chance of two cot deaths, innocent deaths, in a family like hers --
279
854000
5000
على أن فرصة حالتي موت جراء موت المهد، موت برئ، في عائلة مثل عائلتها --
14:19
which was professional and non-smoking -- was one in 73 million.
280
859000
6000
التي كانت مهنية وغير مدخنة -- كان واحد في 73 مليون.
14:26
To cut a long story short, she was convicted at the time.
281
866000
3000
لإختصار القصة الطويلة، لقد تمت إدانتها في ذلك الوقت.
14:29
Later, and fairly recently, acquitted on appeal -- in fact, on the second appeal.
282
869000
5000
لاحقاً، إلى حد ما مؤخراً، قامت بالإستئناف-- في الواقع، في الإستئناف الثاني.
14:34
And just to set it in context, you can imagine how awful it is for someone
283
874000
4000
وفقط لوضع الأمور في السياق ، يمكنكم تخيل كم هو مروع لشخص ما
14:38
to have lost one child, and then two, if they're innocent,
284
878000
3000
أن يفقد طفل، ثم الطفل الثاني، إذا كان بريئاً،
14:41
to be convicted of murdering them.
285
881000
2000
ليتم إدانته بقتلهم.
14:43
To be put through the stress of the trial, convicted of murdering them --
286
883000
2000
ليتم وضعه عبر ضغوط المحاكمة، وإدانته بقتلهم--
14:45
and to spend time in a women's prison, where all the other prisoners
287
885000
3000
ويقضي الوقت في سجن النساء، حيث كل بقية السجينات
14:48
think you killed your children -- is a really awful thing to happen to someone.
288
888000
5000
يعتقدون أنك قتلت أطفالك-- إنه حقاً شئ فظيع ليحدث لشخص ما.
14:53
And it happened in large part here because the expert got the statistics
289
893000
5000
وقد حدث في جزء كبير منه لأن الخبراء فهموا الإحصائيات
14:58
horribly wrong, in two different ways.
290
898000
3000
بصورة خاطئة جداً، بطريقتين مختلفتين.
15:01
So where did he get the one in 73 million number?
291
901000
4000
إذاً من أين حصل على الرقم واحد في 73 مليوناً؟
15:05
He looked at some research, which said the chance of one cot death in a family
292
905000
3000
لقد نظر في بعض البحوث، التي تقول أن فرصة واحدة لموت المهد في أسرة
15:08
like Sally Clark's is about one in 8,500.
293
908000
5000
مثل سالي كلارك هي حوالي واحد في ثمانية ألف ونصف.
15:13
So he said, "I'll assume that if you have one cot death in a family,
294
913000
4000
لذا فقد قال، " سأفترض أنه إذا كان لديك حالة موت مهد واحد في الأسرة،
15:17
the chance of a second child dying from cot death aren't changed."
295
917000
4000
فأن فرصة حالة موت طفل ثاني جراء موت المهد لا تتغير."
15:21
So that's what statisticians would call an assumption of independence.
296
921000
3000
إذاً ذلك ما يسميه متخصصي الإحصاء بفرضية الإستقلال.
15:24
It's like saying, "If you toss a coin and get a head the first time,
297
924000
2000
إنها مثل أن تقول،" إذا رميت بالعملة وحصلت على صورة في المرة الأولى،
15:26
that won't affect the chance of getting a head the second time."
298
926000
3000
فذلك لن يؤثر على فرصة الحصول على صورة في المرة الثانية."
15:29
So if you toss a coin twice, the chance of getting a head twice are a half --
299
929000
5000
لذا إذا رميت العملة مرتين، فأن فرصة الحصول على صورة مرتين هي نصف --
15:34
that's the chance the first time -- times a half -- the chance a second time.
300
934000
3000
تلك هي الفرصة للمرة الأولى -- مضروب في نصف -- الفرصة للمرة الثانية.
15:37
So he said, "Here,
301
937000
2000
لذا فقد قال،" هنا، لنفترض --
15:39
I'll assume that these events are independent.
302
939000
4000
سأفترض أن هذه الأحداث مستقلة.
15:43
When you multiply 8,500 together twice,
303
943000
2000
عندما تضرب ثمانية ألف ونصف سوياً مرتين،
15:45
you get about 73 million."
304
945000
2000
ستحصل على حوالي 73 مليون."
15:47
And none of this was stated to the court as an assumption
305
947000
2000
ولا شئ من هذا قد قيل في المحكمة كإفتراض
15:49
or presented to the jury that way.
306
949000
2000
أو تم تقديمه لهيئة المحلفين بتلك الطريقة.
15:52
Unfortunately here -- and, really, regrettably --
307
952000
3000
لسوء الحظ هنا -- و حقاً، من المؤسف--
15:55
first of all, in a situation like this you'd have to verify it empirically.
308
955000
4000
بادئ ذي بدء، في حالة مثل هذه ينبغي التحقق منها تجريبياً.
15:59
And secondly, it's palpably false.
309
959000
2000
وثانياً، إنها خاطئة بشكل ملحوظ.
16:02
There are lots and lots of things that we don't know about sudden infant deaths.
310
962000
5000
هناك الكثير والكثير من الأشياء التي لا نعلمها عن موت الرُضّع المفاجئ.
16:07
It might well be that there are environmental factors that we're not aware of,
311
967000
3000
قد تكون هناك عوامل بيئية لسنا على علم بها،
16:10
and it's pretty likely to be the case that there are
312
970000
2000
وقد يكون من المحتمل جداً في تلك الحالة أن هناك
16:12
genetic factors we're not aware of.
313
972000
2000
عوامل جينية (وراثية) لسنا على علم بها.
16:14
So if a family suffers from one cot death, you'd put them in a high-risk group.
314
974000
3000
إذاً لو كانت الأسرة تعاني من حالة وفاة مهد واحدة، فأنت تضعهم في مجموعة معرضة لخطر عالي.
16:17
They've probably got these environmental risk factors
315
977000
2000
ربما من المرجح أنهم أصيبوا بهذه العوامل البيئية
16:19
and/or genetic risk factors we don't know about.
316
979000
3000
و/أو عوامل مخاطر جينية لسنا على علم بها.
16:22
And to argue, then, that the chance of a second death is as if you didn't know
317
982000
3000
وللجدل، عندئذ، فان فرصة الوفاة الثانية هي مثلما أنك لم تعرف
16:25
that information is really silly.
318
985000
3000
تلك المعلومات هي بالفعل سخيفة جداً.
16:28
It's worse than silly -- it's really bad science.
319
988000
4000
إنها أسوأ من سخيفة -- إنها بالفعل علم ضار.
16:32
Nonetheless, that's how it was presented, and at trial nobody even argued it.
320
992000
5000
ومع ذلك، هكذا تم تقديمها، في محاكمة لم يجادل فيها أي شخص حتى.
16:37
That's the first problem.
321
997000
2000
تلك هي المشكلة الأولى.
16:39
The second problem is, what does the number of one in 73 million mean?
322
999000
4000
المشكلة الثانية هي، ما الذي يعنيه الرقم واحد في 73 مليون؟
16:43
So after Sally Clark was convicted --
323
1003000
2000
إذاً بعد إدانة سالي كلارك --
16:45
you can imagine, it made rather a splash in the press --
324
1005000
4000
يمكنكم أن تتخيلوا، لقد صنعت العناوين الرئيسية في الصحف --
16:49
one of the journalists from one of Britain's more reputable newspapers wrote that
325
1009000
7000
أحد الصحفيين من أحدى الصحف البريطانية المرموقة كتب أن
16:56
what the expert had said was,
326
1016000
2000
ما قاله الخبراء كان،
16:58
"The chance that she was innocent was one in 73 million."
327
1018000
5000
" فرصة أنها بريئة كان واحد في 73 مليون."
17:03
Now, that's a logical error.
328
1023000
2000
الآن، هذا خطأ منطقي.
17:05
It's exactly the same logical error as the logical error of thinking that
329
1025000
3000
إنه بالضبط نفس الخطأ المنطقي كالخطأ المنطقي عند الإعتقاد بأن
17:08
after the disease test, which is 99 percent accurate,
330
1028000
2000
بعد إجراء إختبار المرض، الذي هو 99% دقيق،
17:10
the chance of having the disease is 99 percent.
331
1030000
4000
فان فرصة الإصابة بالمرض هي 99%.
17:14
In the disease example, we had to bear in mind two things,
332
1034000
4000
في مثال المرض، يجب أن نستصحب في أذهاننا شيئين،
17:18
one of which was the possibility that the test got it right or not.
333
1038000
4000
أولها هو إمكانية أن نتيجة الإختبار صحيحة أم لا.
17:22
And the other one was the chance, a priori, that the person had the disease or not.
334
1042000
4000
والشئ الآخر كان الفرصة، بداهة، بأن الشخص لديه المرض أم لا.
17:26
It's exactly the same in this context.
335
1046000
3000
إنها بالضبط في نفس هذا السياق.
17:29
There are two things involved -- two parts to the explanation.
336
1049000
4000
هناك شيئان يشاركان -- جزئين للتفسير.
17:33
We want to know how likely, or relatively how likely, two different explanations are.
337
1053000
4000
نريد أن نعرف كم هو مرجح، أو نسبياً كم هو مرجح، تفسيران مختلفان.
17:37
One of them is that Sally Clark was innocent --
338
1057000
3000
أحدهما هو أن سالي كلارك كانت بريئة--
17:40
which is, a priori, overwhelmingly likely --
339
1060000
2000
الذي هو، بداهة، مرجح بشدة --
17:42
most mothers don't kill their children.
340
1062000
3000
معظم الأمهات لا يقتلن أبنائهن.
17:45
And the second part of the explanation
341
1065000
2000
والجزء الثاني من التفسير
17:47
is that she suffered an incredibly unlikely event.
342
1067000
3000
هو أنها عانت من حدث غير مرجح بصورة غير معقولة.
17:50
Not as unlikely as one in 73 million, but nonetheless rather unlikely.
343
1070000
4000
ليس كترجيح واحد في 73 مليون، لكن مع ذلك غير مرجح إلى حد ما.
17:54
The other explanation is that she was guilty.
344
1074000
2000
التفسير الآخر هو أنها كانت مذنبة.
17:56
Now, we probably think a priori that's unlikely.
345
1076000
2000
الآن، من المحتمل أننا نعتقد أن البداهة غير مرجحة.
17:58
And we certainly should think in the context of a criminal trial
346
1078000
3000
وأننا بالتأكيد ينبغي أن نفكر في سياق محاكمة المجرم
18:01
that that's unlikely, because of the presumption of innocence.
347
1081000
3000
الذي هو غير مرجح، بسبب إفتراض البراءة.
18:04
And then if she were trying to kill the children, she succeeded.
348
1084000
4000
ثم إذا كانت تحاول قتل الأطفال، لقد نجحت.
18:08
So the chance that she's innocent isn't one in 73 million.
349
1088000
4000
إذاً فرصة أنها كانت بريئة ليست واحد في 73 مليون.
18:12
We don't know what it is.
350
1092000
2000
نحن لا نعلم ما هي.
18:14
It has to do with weighing up the strength of the other evidence against her
351
1094000
4000
إنها مرتبطة بتقييم قوة بقية الأدلة الأخرى ضدها
18:18
and the statistical evidence.
352
1098000
2000
والدليل الإحصائي.
18:20
We know the children died.
353
1100000
2000
نحن نعرف أن الأطفال ماتوا.
18:22
What matters is how likely or unlikely, relative to each other,
354
1102000
4000
الذي يهم هو الترجيح وعدم الترجيح، متناسبين مع بعضهم البعض
18:26
the two explanations are.
355
1106000
2000
في كلا التفسيرين.
18:28
And they're both implausible.
356
1108000
2000
وكلاهما غير قابل للتصديق.
18:31
There's a situation where errors in statistics had really profound
357
1111000
4000
هناك حالة عندما يكون للخطأ الإحصائي عواقب
18:35
and really unfortunate consequences.
358
1115000
3000
وخيمة وتبعات غير سارة.
18:38
In fact, there are two other women who were convicted on the basis of the
359
1118000
2000
في الحقيقة، هناك إمرأتين أخريات تم إدانتهن على أساس
18:40
evidence of this pediatrician, who have subsequently been released on appeal.
360
1120000
4000
الدليل من ذلك الطبيب , اللتان أفرج عنهما لاحقاً في الإستئناف.
18:44
Many cases were reviewed.
361
1124000
2000
تمت مراجعة العديد من الحالات.
18:46
And it's particularly topical because he's currently facing a disrepute charge
362
1126000
4000
والأمر فعلاً موضوعي لأنه حالياً يواجه تهم سمعة طبية
18:50
at Britain's General Medical Council.
363
1130000
3000
في مجلس بريطانيا الطبي العام.
18:53
So just to conclude -- what are the take-home messages from this?
364
1133000
4000
إذاً للخلاصة -- ما الرسالة التي نأخذها معنا إلى البيت من هذا؟
18:57
Well, we know that randomness and uncertainty and chance
365
1137000
4000
حسناً، نحن نعرف أن العشوائية، وعدم اليقين، والصدفة
19:01
are very much a part of our everyday life.
366
1141000
3000
هي جزء كبير من حياتنا اليومية.
19:04
It's also true -- and, although, you, as a collective, are very special in many ways,
367
1144000
5000
وصحيح ايضاً -- ورغماً، عن أنكم كنخبة، متميزون بعدة طرق خاصة،
19:09
you're completely typical in not getting the examples I gave right.
368
1149000
4000
فأنتم متطابقون كلياً في عدم فهم الأمثلة التي أعطيتها لكم سابقاً.
19:13
It's very well documented that people get things wrong.
369
1153000
3000
من الموثق جداً أن الناس يفهمون الأشياء بصورة خاطئة.
19:16
They make errors of logic in reasoning with uncertainty.
370
1156000
3000
إنهم يقومون بأخطاء في المنطق و التفسير وعدم اليقين.
19:20
We can cope with the subtleties of language brilliantly --
371
1160000
2000
يمكننا التعامل مع دقة اللغة ببراعة--
19:22
and there are interesting evolutionary questions about how we got here.
372
1162000
3000
وهناك أسئلة تطورية مثيرة حول كيفية وصولنا إلى هنا.
19:25
We are not good at reasoning with uncertainty.
373
1165000
3000
نحن لسنا جيدين في التفسير مع عدم اليقين.
19:28
That's an issue in our everyday lives.
374
1168000
2000
هذه قضية تلازم حياتنا اليومية.
19:30
As you've heard from many of the talks, statistics underpins an enormous amount
375
1170000
3000
كما سمعنا من العديد من المحادثات، الإحصاء تدعم كمية ماهولة
19:33
of research in science -- in social science, in medicine
376
1173000
3000
من البحوث في العلوم -- في العلوم الإجتماعية، في الطب
19:36
and indeed, quite a lot of industry.
377
1176000
2000
وبالطبع، الكثير من الصناعة.
19:38
All of quality control, which has had a major impact on industrial processing,
378
1178000
4000
كلها في ضبط الجودة، التي لديها تأثير كبير في عمليات التصنيع،
19:42
is underpinned by statistics.
379
1182000
2000
مدعومة بالإحصاء.
19:44
It's something we're bad at doing.
380
1184000
2000
إنها شئ نحن سيئين في القيام به.
19:46
At the very least, we should recognize that, and we tend not to.
381
1186000
3000
على أقل تقدير، ينبغي أن نعترف بذلك، ونحن نميل لعدم الإعتراف به.
19:49
To go back to the legal context, at the Sally Clark trial
382
1189000
4000
لنرجع إلى السياق القانوني، في محاكمة سالي كلارك
19:53
all of the lawyers just accepted what the expert said.
383
1193000
4000
كل المحامون تقبلوا ما قاله الخبراء فقط.
19:57
So if a pediatrician had come out and said to a jury,
384
1197000
2000
لذا لو جاء طبيب الأطفال وقال لهيئة المحلفين،
19:59
"I know how to build bridges. I've built one down the road.
385
1199000
3000
" أنا أعرف كيف أبني جسراً. لقد بنيت واحداً اسفل الطريق.
20:02
Please drive your car home over it,"
386
1202000
2000
أرجو أن تقودوا سيارتكم إلى المنزل عبره،"
20:04
they would have said, "Well, pediatricians don't know how to build bridges.
387
1204000
2000
فسيقولون، " حسناً، طبيب الأطفال لا يعرف كيف يبني جسور.
20:06
That's what engineers do."
388
1206000
2000
ذلك ما يفعله المهندسون."
20:08
On the other hand, he came out and effectively said, or implied,
389
1208000
3000
على الجانب الآخر، لقد جاء وقال على نحو فعال، أو ضمنياً،
20:11
"I know how to reason with uncertainty. I know how to do statistics."
390
1211000
3000
" أنا أعرف كيفية التفسير مع عدم اليقين. أنا أعرف كيف أقوم بالإحصاء."
20:14
And everyone said, "Well, that's fine. He's an expert."
391
1214000
3000
وقال الجميع، " حسناً، ذلك جيد. إنه خبير."
20:17
So we need to understand where our competence is and isn't.
392
1217000
3000
إذاً فنحن نحتاج لفهم أين هي إختصاصاتنا وأين لا توجد.
20:20
Exactly the same kinds of issues arose in the early days of DNA profiling,
393
1220000
4000
بالضبط بنفس الطريقة التي نشأت بها الأيام الأولى من سلسلة الحمض النووي،
20:24
when scientists, and lawyers and in some cases judges,
394
1224000
4000
عندما كان العلماء، والمحامين وفي بعض الأحيان القضاة،
20:28
routinely misrepresented evidence.
395
1228000
3000
يقومون بتشويه الأدلة بشكل روتيني.
20:32
Usually -- one hopes -- innocently, but misrepresented evidence.
396
1232000
3000
عادةً-- يأمل أحدنا-- ببراءة، لكن يقوم بتشويه الأدلة.
20:35
Forensic scientists said, "The chance that this guy's innocent is one in three million."
397
1235000
5000
قال خبراء الطب الشرعي، " فرصة أن يكون هذا الشخص بريئاً هي واحد في ثلاثة مليون.
20:40
Even if you believe the number, just like the 73 million to one,
398
1240000
2000
حتى إذا صدقت الرقم، بالضبط مثل 73 مليون إلى واحد،
20:42
that's not what it meant.
399
1242000
2000
فليس ذلك ما تعنيه.
20:44
And there have been celebrated appeal cases
400
1244000
2000
وكانت هناك حالات طعن تم الإحتفاء بها
20:46
in Britain and elsewhere because of that.
401
1246000
2000
في بريطانيا وفي كل مكان بسبب ذلك.
20:48
And just to finish in the context of the legal system.
402
1248000
3000
وفقط لأنهي في السياق القانوني.
20:51
It's all very well to say, "Let's do our best to present the evidence."
403
1251000
4000
من الجيد القول، " لنفعل أقصى ما بوسعنا لتقديم الدليل."
20:55
But more and more, in cases of DNA profiling -- this is another one --
404
1255000
3000
لكن أكثر وأكثر، في حالات سلسلة الحمض النووي-- هذا هو واحد آخر--
20:58
we expect juries, who are ordinary people --
405
1258000
3000
نحن نتوقع من المحلفين، الذين هم أشخاص عاديون--
21:01
and it's documented they're very bad at this --
406
1261000
2000
ومن الموثق أنهم سيئون للغاية في هذا --
21:03
we expect juries to be able to cope with the sorts of reasoning that goes on.
407
1263000
4000
نتوقع من المحلفين أن يقدروا على التعامل مع أنواع التفسيرات الجارية.
21:07
In other spheres of life, if people argued -- well, except possibly for politics --
408
1267000
5000
في أسافير أخرى من الحياة، إذا جادل الناس -- حسناً، ماعدا لأغراض السياسة.
21:12
but in other spheres of life, if people argued illogically,
409
1272000
2000
لكن في أسافير الحياة الأخرى، إذا تجادل الناس بمنطقية،
21:14
we'd say that's not a good thing.
410
1274000
2000
سنقول أن ذلك ليس شيئاً جيداً.
21:16
We sort of expect it of politicians and don't hope for much more.
411
1276000
4000
نحن نوعاً ما نتوقعها من السياسيين ولا نأمل أكثر من ذلك.
21:20
In the case of uncertainty, we get it wrong all the time --
412
1280000
3000
في حالة عدم اليقين، نحن نخطئ بها طوال الوقت--
21:23
and at the very least, we should be aware of that,
413
1283000
2000
وعلى أقل تقدير، ينبغي أن ندرك لذلك.
21:25
and ideally, we might try and do something about it.
414
1285000
2000
وبشكل مثالي، ربما نحاول فعل شئ حيال الأمر.
21:27
Thanks very much.
415
1287000
1000
شكراً جزيلاً لكم.
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7