The method that can "prove" almost anything - James A. Smith

816,442 views ・ 2021-08-05

TED-Ed


Please double-click on the English subtitles below to play the video.

Translator: Lavan Smael Reviewer: Daban Q. Jaff
00:06
In 2011, a group of researchers conducted a scientific study
0
6371
4167
لە ٢٠١١،کۆمەڵێک تویژەر توێژینەوەیەکی زانستیان کرد
00:10
to find an impossible result:
1
10538
2125
بۆ دۆزینەوەی ئەنجامێکی مەحاڵ:
00:12
that listening to certain songs can make you younger.
2
12663
3500
کە گوێگرتن بۆ گۆرانیە دیاریکراوەکان دەتوانێت وات لێبکات گەنجتر بی.
00:16
Their study involved real people, truthfully reported data,
3
16663
3625
توێژینەوەکەیان خەڵکی ڕاستەقینەی دەگرتەوە، کە بە دڵسۆزی زانیاریان دەدا،
00:20
and commonplace statistical analyses.
4
20288
3000
و شیکردنەوەی ئامارە دەگمەنەکان.
00:23
So how did they do it?
5
23288
1416
کەواتە چۆن ئەوەیان کرد؟
00:24
The answer lies in a statistical method scientists often use
6
24704
4125
وەڵامەکە لەو ڕێگایە زانستیەدا خۆی دەبینێتەوە کە زاناکان زۆر جار بەکاری دەهێنن
00:28
to try to figure out whether their results mean something or if they’re random noise.
7
28829
4875
وەک هەوڵێک بۆ زانینی ئەوەی کە ئایا ئامانجەکانیان مانای شتێکە یان تەنها دەنگێکی هەڕەمەکین.
00:33
In fact, the whole point of the music study
8
33704
2625
لە راستیدا، هەموو مەبەستەکە لە لێکۆڵینەوە لە گۆرانیەکان
00:36
was to point out ways this method can be misused.
9
36329
3917
بریتی بوو لە دەستنیشانکردنی ئەو ڕێگایانەی کە دەکرێت بە هەڵە بەکاربهێندرێن.
00:40
A famous thought experiment explains the method:
10
40746
2791
تاقیکردنەوەیەکی فکری بەناوبانگ شێوازەکە ڕوون دەکاتەوە:
00:43
there are eight cups of tea,
11
43746
1750
هەشت کوپی چا هەیە،
00:45
four with the milk added first, and four with the tea added first.
12
45496
4416
چواریان لەگەڵ شیر تێکەڵ دەکرێن، و چواریان لەگەڵ چا تێکەڵ دەکرێن.
00:50
A participant must determine which are which according to taste.
13
50162
3625
بەشداربوویەک پێویستە دیاری بکا کە کامە کامەیە بەپێی تامەکان.
00:53
There are 70 different ways the cups can be sorted into two groups of four,
14
53871
4583
٧٠ ڕێگای جیاواز هەیە، کوپەکان دەتواندرێت پۆلێن بکرێن بۆ دوو گرووپی چواری،
00:58
and only one is correct.
15
58454
2000
و تەنها یەکان ڕاستە.
01:00
So, can she taste the difference?
16
60662
2584
کەواتە کچەکە دەتوانێت تامی جیاوازیەکە بکات؟
01:03
That’s our research question.
17
63246
1625
ئەوە پرسیاری توێژینەوەکەمانە.
01:04
To analyze her choices, we define what’s called a null hypothesis:
18
64871
4625
بۆ شیکردنەوەی هەڵبژاردەکانی، ئەوە پێناسە دەکەین کە پییدەگوترێ گریمانەی بەتاڵ:
01:09
that she can’t distinguish the teas.
19
69496
2167
کە کچەکە ناتوانێت چایەکان لێک جیابکاتەوە.
01:11
If she can’t distinguish the teas,
20
71871
2042
ئەگەر کچەکە نەتوانیت چایەکان لێک جیابکاتەوە،
01:13
she’ll still get the right answer 1 in 70 times by chance.
21
73913
5166
هێشتا دەتوانێت هەلی بەدەستهێنانی یەک لە حەفتای وەڵامە ڕاستەکەی هەبێت.
01:19
1 in 70 is roughly .014.
22
79079
3334
یەک لە حەفتا نزیکەی (٠.٠١٤)یە.
01:22
That single number is called a p-value.
23
82746
3292
ئەو ژمارە سادەیە پێی دەگوترێ بەهای-پ.
01:26
In many fields, a p-value of .05 or below is considered statistically significant,
24
86038
6916
لە زۆر بواردا، بەهای (٠.٠٥) یاخود کەمتر، لە ڕووی ئامارەوە بە گەورە دادەندریت،
01:32
meaning there’s enough evidence to reject the null hypothesis.
25
92954
3792
واتە بەڵگەی تەواو هەیە بۆ ڕەتکردنەوەی گریمانە باتاڵەکە.
01:36
Based on a p-value of .014,
26
96996
3375
لەسەر بنەمای بەهای-پ لە (٠.٠١٤)،
01:40
they’d rule out the null hypothesis that she can’t distinguish the teas.
27
100371
4125
ئەوان بنەما بەتاڵەکەیان بەلانا کە کچەکە نەتوانیت چایەکان لێک جیا بکاتەوە.
01:44
Though p-values are commonly used by both researchers and journals
28
104913
3916
هەرچەندە بەهاکانی-پ بە بەربڵاوی لەلایەن توێژەر و ڕۆژنامەکانەوە بەکاردەهێندرین
01:48
to evaluate scientific results,
29
108829
2084
بۆ هەڵسەنگاندنی ئەنجامە ڕاستیەکان،
01:50
they’re really confusing, even for many scientists.
30
110913
2958
ئەوان بە تەواوی تێکەڵ و پێکەڵن، تەنانەت بۆ زۆریک لە زاناکانیش.
01:54
That’s partly because all a p-value actually tells us
31
114329
4042
بەشێکی لەبەر ئەوەیە کە لە ڕاستیدا پێمان دەڵێت هەموو بەهایەکی-پ
01:58
is the probability of getting a certain result,
32
118371
3000
ئەگەری بەدەستهینانی ئەنجامێکی دیاریکراوە،
02:01
assuming the null hypothesis is true.
33
121371
2917
گریمان گریمانە پوچەکە ڕاستە.
02:04
So if she correctly sorts the teas,
34
124663
2791
کەواتە ئەگەر کچەکە بەشێوەیەکی دروست چایەکان پۆلێن بکات،
02:07
the p-value is the probability of her doing so
35
127454
3417
بەهای-پ بریتییە لەو ئەگەرەی کە کچەکە ئەو کارە دەکات
02:10
assuming she can’t tell the difference.
36
130871
2458
گریمان کچەکە ناتوانێت جیاوازیەکە بکات.
02:13
But the reverse isn’t true:
37
133329
2459
بەڵام پێچەوانەکەی ڕاست نیە:
02:15
the p-value doesn’t tell us the probability
38
135788
2416
بەهای-پ ئەگەرەکەمان پیناڵیت
02:18
that she can taste the difference,
39
138204
1625
کە کچەکە دەتوانێت تامی جیاوازیەکان بکات،
02:19
which is what we’re trying to find out.
40
139829
2084
کە ئەو شتەیە کە ئێمە هەوڵدەدەین بیدۆزینەوە.
02:22
So if a p-value doesn’t answer the research question,
41
142329
3250
کەواتە ئەگەر بەهای-پ وەڵامی پرسیاری توێژینەوەکە نەداتەوە،
02:25
why does the scientific community use it?
42
145579
2292
کۆمەڵگەی زانستی بۆجی بەکاری دەهێنێت؟
02:28
Well, because even though a p-value doesn’t directly state the probability
43
148329
4709
باشە، لەبەرئەوەی هەرچەندە بەهای-پ بە شێوەیەکی ڕاستەوخۆ ئەگەرەکە ناپێکێت
02:33
that the results are due to random chance,
44
153038
2500
کە ئەنجامەکان بەهۆی هەلی هەڕەمەکیەوەیە،
02:35
it usually gives a pretty reliable indication.
45
155538
3333
ئەوا، ئەو زۆر جار تاڕادەیەکی باش ئاماژەیەکی باوەڕپێکراو دەدات بە دەستەوە.
02:39
At least, it does when used correctly.
46
159204
2792
بە لایەنی کەم ئەوە دەکات کاتێک بە ڕاستی بەکارهاتبێت.
02:41
And that’s where many researchers, and even whole fields,
47
161996
3917
و ئەوەش ئەو شوێنەیە کە زۆرێک لە توێژەران و تەنانەت هەموو بوارەکان،
02:45
have run into trouble.
48
165913
1458
توشی کێشە بوون.
02:47
Most real studies are more complex than the tea experiment.
49
167538
3458
زۆربەی توێژینەوە ڕاستەقینەکان زۆر ئاڵۆزترن لە تاقیکردنەوەی چا.
02:51
Scientists can test their research question in multiple ways,
50
171288
3375
زاناکان دەتوانن پرسیاری توێژینەوەکەیان تاقیبکەنەوە بە چەندین ڕێگەی جیاواز،
02:54
and some of these tests might produce a statistically significant result,
51
174663
4375
و هەندێک لەو تاقیکردنەوانە ڕەنگە ئەنجامی گرینگ لە ڕووی ئامارییەوە پێشکەش بکەن،
02:59
while others don’t.
52
179038
1208
لە کاتێکدا ئەوانیتر ئەوە ناکەن.
03:00
It might seem like a good idea to test every possibility.
53
180454
3167
ڕەنگە بیرۆکەی تاقیکردنەوەی هەموو ئەگەرەکان وا دەربکەوێ کە بیرۆکەیەکی باش بێت.
03:03
But it’s not, because with each additional test,
54
183913
3083
بەڵام وانیە، چونکە لەگەڵ هەر تاقیکردنەوەیەکی تر،
03:07
the chance of a false positive increases.
55
187163
3208
ئەگەری (ئەرێنی هەڵە) زیاد دەکات.
03:10
Searching for a low p-value, and then presenting only that analysis,
56
190996
4500
گەڕان بەدوای بەهایەکی-پ نزم، و دواتر بە تەنها خستنەڕوی ئەو شیکردنەوەیە،
03:15
is often called p-hacking.
57
195496
2750
زۆر جار پێی دەگوترێ هاککردنی-پ.
03:18
It’s like throwing darts until you hit a bullseye
58
198246
2750
وەک فڕێدانی تیرەکانە تاکو لە ئامانجی دەدەی
03:20
and then saying you only threw the dart that hit the bull’s eye.
59
200996
3333
و دواتر بڵێی تۆ تەنها ئەو تیرەت هاوێشتووە کە ناوەڕاستی ئامانجەکەی گرتووە.
03:24
This is exactly what the music researchers did.
60
204746
3208
ئەوە بە تەواوی ئەوەیە کە توێژەرانی مۆسیقا کردیان.
03:28
They played three groups of participants each a different song
61
208079
3709
ئەوان سێ گروپی بەژداربووانیان هەبوو، کە هەر یەکێکیان گۆرانیەکی جیاوازیان بۆ لێدەدا
03:31
and collected lots of information about them.
62
211788
2500
و زانیاری زۆریان کۆکردەوە دەربارەی ئەوان.
03:34
The analysis they published included only two out of the three groups.
63
214288
4250
ئەو شیکارییانەی بڵاویان کردۆتەوە تەنها دوو گروپی لەخۆگرتبوو لە نێوان سێ گروپەکەدا.
03:38
Of all the information they collected,
64
218538
2208
لە ناو هەموو ئەو زانیاریانەی کە کۆیان کردیتەوە،
03:40
their analysis only used participants’ fathers’ age—
65
220746
3542
شیکردنەوەکەیان تەنها تەمەنی باوکی بەژداربووەکانی بەکار دەهێنا
03:44
to “control for variation in baseline age across participants.”
66
224288
4541
بۆ کۆنتڕۆڵکردنی دروستبوونی جیاوازی لە تەمەنی بنچینەیی هەموو بەژداربووەکان.”
03:49
They also paused their experiment after every ten participants,
67
229246
4208
ئەوا ئەوان دوای هەموو دە بەژداربوویەک یاقیکردنەوەکەیان دەوەستاند،
03:53
and continued if the p-value was above .05,
68
233454
4459
و بەردەوام دەبوون ئەگەر بەهای-پ لە سەرووی .٠٥ بوایا،
03:57
but stopped when it dipped below .05.
69
237913
3291
بەڵام دەوەستا کاتێک کەم دەبوویەوە بۆ خوار ٠.٠٥.
04:01
They found that participants who heard one song were 1.5 years younger
70
241746
5208
بۆیان دەرکەوت ئەو بەژداربووانەی کە گوێیان لە یەک گۆرانی گرتووە ١.٥ ساڵ گەنجتر بوون
04:06
than those who heard the other song, with a p-value of .04.
71
246954
4375
لەوانەی کە گوێیان لەگۆرانیەکی تر گرتبوو بە بەهای.٠٤ی (پ).
04:12
Usually it’s much tougher to spot p-hacking,
72
252163
2833
زۆربەی کات زۆر قورسترە کە درک بە پ-هاکینگ بکەی،
04:14
because we don’t know the results are impossible:
73
254996
2667
لەبەرئەوەی ئێمە نازانین ئەنجامەکان مەحاڵن:
04:17
the whole point of doing experiments is to learn something new.
74
257663
3416
هەموو مەبەستەکە لە ئەنجامدانی تاقیکردنەوەکان بۆ فێربوونی شتێکی نوێیە.
04:21
Fortunately, there’s a simple way to make p-values more reliable:
75
261329
4209
خۆشبەختانە، ڕێگایەکی ئاسان هەیە تاکو وا لە بەهای-پ بکەیت کە زیاتر پشت پێبەستراو بێ:
04:25
pre-registering a detailed plan for the experiment and analysis
76
265913
4708
تۆمارکردنی پلانێکی ورد بە شێوەی پێشەکی بە مەبەستی تاقیکردنەوە و شیکاری
04:30
beforehand that others can check,
77
270621
2458
لە پێشەوە کە ئەوانیتر بتوانن بیپشکنن،
04:33
so researchers can’t keep trying different analyses
78
273079
3417
لەبەر ئەوە توێژەرەکان ناتوانن بەردەوام بن لە شیکردنەوەی جیاواز
04:36
until they find a significant result.
79
276496
2125
هەتا ئەنجامێکی گرنگ دەدۆزنەوە.
04:38
And, in the true spirit of scientific inquiry,
80
278788
2458
و، بە ڕۆحێکی ڕاستەقینەی بەدواداچونی زانستی،
04:41
there’s even a new field that’s basically science doing science on itself:
81
281246
5375
تەنانەت بوارێکی نوێ هەیە لە بنەڕەتدا بریتیە لەوەی زانست تاقیکردنەوە لەسەر خۆی دەکات:
04:46
studying scientific practices in order to improve them.
82
286621
3667
خوێندنی ڕاهێنانە زانستییەکان لە پێناو گەشە پێدانیان.
About this website

This site will introduce you to YouTube videos that are useful for learning English. You will see English lessons taught by top-notch teachers from around the world. Double-click on the English subtitles displayed on each video page to play the video from there. The subtitles scroll in sync with the video playback. If you have any comments or requests, please contact us using this contact form.

https://forms.gle/WvT1wiN1qDtmnspy7