The method that can "prove" almost anything - James A. Smith

832,599 views ・ 2021-08-05

TED-Ed


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

תרגום: Ido Dekkers עריכה: Sigal Tifferet
00:06
In 2011, a group of researchers conducted a scientific study
0
6371
4167
ב 2011, קבוצת חוקרים ערכה מחקר מדעי
00:10
to find an impossible result:
1
10538
2125
וקיבלה תוצאה בלתי אפשרית:
00:12
that listening to certain songs can make you younger.
2
12663
3500
שהקשבה לשירים מסויימים יכולה להפוך אתכם לצעירים.
00:16
Their study involved real people, truthfully reported data,
3
16663
3625
המחקר שלהם כלל אנשים אמיתיים, נתונים אמיתיים וכנים,
00:20
and commonplace statistical analyses.
4
20288
3000
וניתוחים סטטיסטיים נפוצים.
00:23
So how did they do it?
5
23288
1416
אז איך הם עשו את זה?
00:24
The answer lies in a statistical method scientists often use
6
24704
4125
התשובה נמצאת בשיטה סטטיסטית בה מדענים משתמשים רבות
00:28
to try to figure out whether their results mean something or if they’re random noise.
7
28829
4875
כדי להבין אם לתוצאות שקיבלו יש משמעות, או שהן סתם רעש אקראי.
00:33
In fact, the whole point of the music study
8
33704
2625
למעשה, כל מטרתו של מחקר המוזיקה
00:36
was to point out ways this method can be misused.
9
36329
3917
היתה להצביע על דרכים בהן אפשר להשתמש לרעה בשיטה הזו.
00:40
A famous thought experiment explains the method:
10
40746
2791
ניסוי מחשבתי מפורסם מסביר את השיטה:
00:43
there are eight cups of tea,
11
43746
1750
יש שמונה כוסות תה,
00:45
four with the milk added first, and four with the tea added first.
12
45496
4416
בארבע מהן מזגו קודם חלב, ובארבע מזגו קודם תה.
00:50
A participant must determine which are which according to taste.
13
50162
3625
משתתפת צריכה לקבוע מה מזגו קודם בכל אחת מהן, לפי הטעם.
00:53
There are 70 different ways the cups can be sorted into two groups of four,
14
53871
4583
יש 70 דרכים שונות שהכוסות יכולות להיות מקובצות בשתי קבוצות של ארבע,
00:58
and only one is correct.
15
58454
2000
ורק אחת מהן נכונה.
01:00
So, can she taste the difference?
16
60662
2584
אז האם היא תוכל לטעום מה מזגו קודם?
01:03
That’s our research question.
17
63246
1625
זו שאלת המחקר שלנו.
01:04
To analyze her choices, we define what’s called a null hypothesis:
18
64871
4625
כדי לנתח את הבחירות שלה, אנחנו מגדירים “השערת אפס“:
01:09
that she can’t distinguish the teas.
19
69496
2167
שהיא לא יכולה להבחין בין סוגי התה.
01:11
If she can’t distinguish the teas,
20
71871
2042
אם היא לא יכולה להבחין בין סוגי התה,
01:13
she’ll still get the right answer 1 in 70 times by chance.
21
73913
5166
היא עדיין תגיע לתשובה הנכונה ב 1 מתוך 70 פעמים במקרה.
01:19
1 in 70 is roughly .014.
22
79079
3334
1 מתוך 70 זה בערך 0.014.
01:22
That single number is called a p-value.
23
82746
3292
המספר הזה נקרא ערך p.
01:26
In many fields, a p-value of .05 or below is considered statistically significant,
24
86038
6916
בתחומים רבים, ערך p של 0.05 או פחות נחשב למובהק מבחינה סטטיסטית,
01:32
meaning there’s enough evidence to reject the null hypothesis.
25
92954
3792
מה שאומר שיש מספיק עדויות לדחות את השערת האפס.
01:36
Based on a p-value of .014,
26
96996
3375
בהתבסס על ערך p של 0.014,
01:40
they’d rule out the null hypothesis that she can’t distinguish the teas.
27
100371
4125
הם יפסלו את השערת האפס שהיא לא יכולה להבחין בין סוגי התה.
01:44
Though p-values are commonly used by both researchers and journals
28
104913
3916
למרות שמקובל מאוד להשתמש בערכי p על ידי חוקרים וכתבי-עת
01:48
to evaluate scientific results,
29
108829
2084
כדי להעריך תוצאות מדעיות,
01:50
they’re really confusing, even for many scientists.
30
110913
2958
הם באמת מבלבלים, גם לרבים מהמדעניות.
01:54
That’s partly because all a p-value actually tells us
31
114329
4042
חלקית, בגלל שכל מה שערך p אומר לנו,
01:58
is the probability of getting a certain result,
32
118371
3000
זה מה ההסתברות לקבל תוצאה מסויימת,
02:01
assuming the null hypothesis is true.
33
121371
2917
בהנחה שהשערת האפס נכונה.
02:04
So if she correctly sorts the teas,
34
124663
2791
אז אם היא ממיינת את כוסות התה באופן נכון,
02:07
the p-value is the probability of her doing so
35
127454
3417
ערך ה p הוא ההסתברות שהיא תעשה זאת
02:10
assuming she can’t tell the difference.
36
130871
2458
בהנחה שהיא לא יכולה להבדיל.
02:13
But the reverse isn’t true:
37
133329
2459
אבל ההיפך אינו נכון:
02:15
the p-value doesn’t tell us the probability
38
135788
2416
ערך ה p לא אומר לנו מה ההסתברות
02:18
that she can taste the difference,
39
138204
1625
שהיא יכולה להבדיל בין הטעמים,
02:19
which is what we’re trying to find out.
40
139829
2084
שזה מה שאנחנו מנסים לגלות.
02:22
So if a p-value doesn’t answer the research question,
41
142329
3250
אז אם ערך ה p לא עונה על שאלת המחקר,
02:25
why does the scientific community use it?
42
145579
2292
למה הקהילה המדעית משתמשת בו?
02:28
Well, because even though a p-value doesn’t directly state the probability
43
148329
4709
מכיוון שלמרות שערך p לא מראה ישירות את ההסתברות
02:33
that the results are due to random chance,
44
153038
2500
שתוצאה התקבלה באופן מקרי,
02:35
it usually gives a pretty reliable indication.
45
155538
3333
הוא בדרך כלל מהווה סימן די אמין.
02:39
At least, it does when used correctly.
46
159204
2792
לפחות, אם משתמשים בו נכון.
02:41
And that’s where many researchers, and even whole fields,
47
161996
3917
ושם הרבה חוקרות, ואפילו תחומים שלמים,
02:45
have run into trouble.
48
165913
1458
נתקלו בבעיה.
02:47
Most real studies are more complex than the tea experiment.
49
167538
3458
רוב המחקרים האמיתיים מורכבים יותר מניסוי התה.
02:51
Scientists can test their research question in multiple ways,
50
171288
3375
מדענים יכולים לבחון את שאלת המחקר שלהם במבחנים מרובים,
02:54
and some of these tests might produce a statistically significant result,
51
174663
4375
וכמה מהמבחנים האלה אולי יתנו תוצאה סטטיסטית מובהקת,
02:59
while others don’t.
52
179038
1208
בזמן שאחרים לא.
03:00
It might seem like a good idea to test every possibility.
53
180454
3167
זה אולי נראה כמו רעיון טוב לבחון כל אפשרות.
03:03
But it’s not, because with each additional test,
54
183913
3083
אבל זה לא. כי עם כל מבחן נוסף,
03:07
the chance of a false positive increases.
55
187163
3208
עולה הסיכוי לקבל תוצאה חיובית שגוייה.
03:10
Searching for a low p-value, and then presenting only that analysis,
56
190996
4500
חיפוש אחר ערך p נמוך, ואז הצגה רק של הניתוח הזה,
03:15
is often called p-hacking.
57
195496
2750
נקרא האקינג של p.
03:18
It’s like throwing darts until you hit a bullseye
58
198246
2750
זה כמו לזרוק חיצים עד שאתם פוגעים בבול
03:20
and then saying you only threw the dart that hit the bull’s eye.
59
200996
3333
ואז להגיד שרק זרקתם את החץ שפגע בבול.
03:24
This is exactly what the music researchers did.
60
204746
3208
זה בדיוק מה שחוקרי המוזיקה עשו.
03:28
They played three groups of participants each a different song
61
208079
3709
הם השמיעו שיר שונה לכל אחת משלוש קבוצות משתתפים
03:31
and collected lots of information about them.
62
211788
2500
ואספו הרבה מידע עליהן.
03:34
The analysis they published included only two out of the three groups.
63
214288
4250
הניתוח שהם פרסמו כלל רק שתים משלוש הקבוצות.
03:38
Of all the information they collected,
64
218538
2208
מכל המידע שהם אספו,
03:40
their analysis only used participants’ fathers’ age—
65
220746
3542
הניתוח שלהם כלל רק את גיל האב של המשתתפים --
03:44
to “control for variation in baseline age across participants.”
66
224288
4541
כדי “לשלוט בשונות הגיל הבסיסי מעבר למשתתפים.”
03:49
They also paused their experiment after every ten participants,
67
229246
4208
הם גם עצרו את הניסוי שלהם אחרי כל עשרה משתתפים,
03:53
and continued if the p-value was above .05,
68
233454
4459
והמשיכו אם ערך ה p היה מעל 0.05,
03:57
but stopped when it dipped below .05.
69
237913
3291
אבל עצרו אותו אם הערך ירד מתחת ל 0.05.
04:01
They found that participants who heard one song were 1.5 years younger
70
241746
5208
הם גילו שמשתתפים ששמעו שיר אחד, היו צעירים ב 1.5 שנים
04:06
than those who heard the other song, with a p-value of .04.
71
246954
4375
מאלו ששמעו את השיר האחר, עם ערך p של 0.04.
04:12
Usually it’s much tougher to spot p-hacking,
72
252163
2833
בדרך כלל הרבה יותר קשה לגלות האקינג של p,
04:14
because we don’t know the results are impossible:
73
254996
2667
כי אנחנו לא יודעות שהתוצאות הן בלתי אפשריות:
04:17
the whole point of doing experiments is to learn something new.
74
257663
3416
כל הרעיון בעריכת ניסויים היא ללמוד משהו חדש.
04:21
Fortunately, there’s a simple way to make p-values more reliable:
75
261329
4209
למרבה המזל, יש דרך פשוטה להפוך את ערך ה p ליותר אמין:
04:25
pre-registering a detailed plan for the experiment and analysis
76
265913
4708
רישום מראש של התכנית המפורטת לניסוי ולניתוח הנתונים,
04:30
beforehand that others can check,
77
270621
2458
כדי שאחרים יוכלו לבדוק אותה קודם,
04:33
so researchers can’t keep trying different analyses
78
273079
3417
והחוקרים לא יוכלו לנסות ניתוחים שונים
04:36
until they find a significant result.
79
276496
2125
עד שהם יקבלו תוצאה מובהקת.
04:38
And, in the true spirit of scientific inquiry,
80
278788
2458
וברוח האמיתית של חקירה מדעית,
04:41
there’s even a new field that’s basically science doing science on itself:
81
281246
5375
יש אפילו תחום חדש שהוא מדע על מדע:
04:46
studying scientific practices in order to improve them.
82
286621
3667
מחקר על מנהגים מדעיים, שנועד לשפר אותם.
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7