我曾经scipy.stats.anderson()
测试过正态分布。我的测试分布不是正态分布,因此 teststatistic > 临界值。但是,当检查我观察到的所有计算的临界值时,对于降低 p 值的临界值正在增加。这意味着,检验越关键(p 值越小),临界值越接近检验统计量。在我看来,这应该是另一种方式。任何熟悉安德森测试及其在 Scipy 中的实现的人?
问问题
3720 次
1 回答
3
上次我进行抽查时,scipy.stats.anderson 工作正常。对于针对正态分布的 Anderson-Darling 检验,statsmodels 具有返回 p 值的函数http://statsmodels.sourceforge.net/devel/generated/statsmodels.stats.diagnostic.normal_ad.html
临界值适用于给定的显着性水平。当我们想要更小的显着性水平时,我们必须增加临界值,假设我们处于分布的右上尾。
http://en.wikipedia.org/wiki/Statistical_significance
例如,对于 z 检验,基于正态分布的一侧上尾临界值为:
>>> from scipy import stats
>>> stats.norm.ppf([0.9, 0.95, 0.975])
array([ 1.28155157, 1.64485363, 1.95996398])
相反,P 值计算给定观察值处的尾部概率,观察值越大,p 值越小,同样在右上尾的情况下。
在您的示例中,如果观察值高于 10% 水平的临界值,那么它仍可能低于 5% 水平的临界值。在这种情况下,我们将拒绝 10% 的原假设,但不会拒绝 5% 的水平。
于 2014-03-01T18:30:39.630 回答