我用scipy.stats.anderson()来 测试正态分布。 我的测试分布不正常分布, 因此,teststatistic>临界值。 但是,检查所有计算的临界值时 我观察到,对于降低p值,临界值正在增加。 这意味着,测试越关键(p值越小), 更接近获得测试统计的临界值。 在我看来,这应该是另一种方式。 谁熟悉Anderson Test及其在Scipy中的实现?
答案 0 :(得分:2)
上次我做了一些抽查,scipy.stats.anderson工作正常。对于正态分布的Anderson-Darling检验,statsmodels具有返回p值的函数http://statsmodels.sourceforge.net/devel/generated/statsmodels.stats.diagnostic.normal_ad.html
关键值是针对给定的显着性水平。当我们想要一个较小的显着性水平时,我们必须增加临界值,假设我们在分布的正确的上尾。
http://en.wikipedia.org/wiki/Statistical_significance
例如,对于z检验,基于正态分布的单侧上尾临界值是:
>>> from scipy import stats
>>> stats.norm.ppf([0.9, 0.95, 0.975])
array([ 1.28155157, 1.64485363, 1.95996398])
相反,P值计算给定观测值的尾部概率,观测值越大,p值越小,右上尾的情况也越小。
在您的示例中,如果观察值高于10%水平的临界值,则它仍然可能低于5%水平的临界值。在这种情况下,我们会拒绝零假设,而不是5%,而不是5%。