29

我有一个关于 N 个数字的数据集,我想测试它的正态性。我知道 scipy.stats 有一个kstest 函数 ,但是没有关于如何使用它以及如何解释结果的示例。这里有熟悉的人可以给我一些建议吗?

根据文档,使用 kstest 返回两个数字,KS 测试统计量 D 和 p 值。如果 p 值大于显着性水平(例如 5%),那么我们不能拒绝数据来自给定分布的假设。

当我通过从正态分布中抽取 10000 个样本并测试高斯性进行测试时:

import numpy as np
from scipy.stats import kstest

mu,sigma = 0.07, 0.89
kstest(np.random.normal(mu,sigma,10000),'norm')

我得到以下输出:

(0.04957880905196102, 8.9249710700788814e-22)

p 值小于 5%,这意味着我们可以拒绝数据呈正态分布的假设。但是样本是从正态分布中抽取的!

有人可以理解并向我解释这里的差异吗?

(正态性测试是否假设 mu = 0 和 sigma = 1?如果是这样,我如何测试我的数据是高斯分布但具有不同的 mu 和 sigma?)

4

4 回答 4

26

您的数据是使用 mu=0.07 和 sigma=0.89 生成的。您正在针对均值为 0 且标准差为 1 的正态分布测试此数据。

原假设 ( H0) 是您的数据作为样本的分布等于标准正态分布,均值为 0,标准差为 1。

较小的 p 值表明,与 D 一样大的检验统计量预期具有概率 p 值。

换句话说,(p 值约为 8.9e-22)这不太可能H0是真的。

这是合理的,因为均值和标准偏差不匹配。

将您的结果与:

In [22]: import numpy as np
In [23]: import scipy.stats as stats
In [24]: stats.kstest(np.random.normal(0,1,10000),'norm')
Out[24]: (0.007038739782416259, 0.70477679457831155)

要测试您的数据是否为高斯分布,您可以对其进行移位和重新缩放,使其在均值 0 和标准偏差 1 下是正常的:

data=np.random.normal(mu,sigma,10000)
normed_data=(data-mu)/sigma
print(stats.kstest(normed_data,'norm'))
# (0.0085805670733036798, 0.45316245879609179)

警告:(非常感谢 user333700(又名 scipy 开发人员Josef Perktold))如果您不知道muand sigma,估计参数会使 p 值无效:

import numpy as np
import scipy.stats as stats

mu = 0.3
sigma = 5

num_tests = 10**5
num_rejects = 0
alpha = 0.05
for i in xrange(num_tests):
    data = np.random.normal(mu, sigma, 10000)
    # normed_data = (data - mu) / sigma    # this is okay
    # 4915/100000 = 0.05 rejects at rejection level 0.05 (as expected)
    normed_data = (data - data.mean()) / data.std()    # this is NOT okay
    # 20/100000 = 0.00 rejects at rejection level 0.05 (not expected)
    D, pval = stats.kstest(normed_data, 'norm')
    if pval < alpha:
        num_rejects += 1
ratio = float(num_rejects) / num_tests
print('{}/{} = {:.2f} rejects at rejection level {}'.format(
    num_rejects, num_tests, ratio, alpha))     

印刷

20/100000 = 0.00 rejects at rejection level 0.05 (not expected)

这表明stats.kstest如果使用样本的均值和标准差对样本进行归一化,则可能不会拒绝预期数量的零假设

normed_data = (data - data.mean()) / data.std()    # this is NOT okay
于 2011-10-26T15:04:11.913 回答
13

关于 unutbu 答案的更新:

对于仅取决于位置和尺度但没有形状参数的分布,几个拟合优度检验统计量的分布与位置和尺度值无关。该分布是非标准的,但是,它可以制成表格并与基础分布的任何位置和规模一起使用。

具有估计位置和规模的正态分布的 Kolmogorov-Smirnov 检验也称为Lilliefors 检验

它现在在 statsmodels 中可用,具有相关决策范围的近似 p 值。

>>> import numpy as np
>>> mu,sigma = 0.07, 0.89
>>> x = np.random.normal(mu, sigma, 10000)
>>> import statsmodels.api as sm
>>> sm.stats.lilliefors(x)
(0.0055267411213540951, 0.66190841161592895)

大多数蒙特卡罗研究表明,Anderson-Darling 检验比 Kolmogorov-Smirnov 检验更有效。它在具有临界值的 scipy.stats 和具有近似 p 值的 statsmodels 中可用:

>>> sm.stats.normal_ad(x)
(0.23016468240712129, 0.80657628536145665)

这两个检验都不拒绝样本是正态分布的空假设。而问题中的 kstest 拒绝了样本是标准正态分布的空假设。

于 2014-03-03T00:59:44.817 回答
3

您可能还想考虑使用 Shapiro-Wilk 检验,该检验“检验数据来自正态分布的零假设”。它也在scipy

http://docs.scipy.org/doc/scipy/reference/generated/scipy.stats.shapiro.html

您需要将数据直接传递到函数中。

import scipy

W, p = scipy.stats.shapiro(dataset)
print("Shapiro-Wilk test statistic, W:", W, "\n", "p-value:", p)

它返回如下内容:

 Shapiro-Wilk test statistic, W: 0.7761164903640747 
 p-value: 6.317247641091492e-37

如果 p << 0.01(或 0.05,如果您愿意的话 - 没关系),我们有充分的理由拒绝这些数据来自正态分布的零假设。

于 2016-03-29T16:51:06.370 回答
1

作为对@unutbu 答案的补充,您还可以在 kstest 中提供测试分布的分布参数。假设我们有一些来自变量的样本(并将它们命名为 datax),我们想检查这些样本是否可能来自对数正态、均匀或正态。请注意,对于 scipy stats,为每个分布采用输入参数的方式会有所不同。现在,感谢 kstest 中的“args”(元组或序列),可以为您要测试的 scipy.stats 分布提供参数。

:) 我还添加了使用两个样本测试的选项,以防您想以任何一种方式进行:

import numpy as np
from math import sqrt
from scipy.stats import kstest, ks_2samp, lognorm
import scipy.stats

def KSSeveralDists(data,dists_and_args,samplesFromDists=100,twosampleKS=True):
    returnable={}
    for dist in dists_and_args:
        try:
            if twosampleKS:
                try:
                    loc=dists_and_args[dist][0]
                    scale=dists_and_args[dist][1]
                    expression='scipy.stats.'+dist+'.rvs(loc=loc,scale=scale,size=samplesFromDists)'
                    sampledDist=eval(expression)
                except:
                    sc=dists_and_args[dist][0]
                    loc=dists_and_args[dist][1]
                    scale=dists_and_args[dist][2]
                    expression='scipy.stats.'+dist+'.rvs(sc,loc=loc,scale=scale,size=samplesFromDists)'
                    sampledDist=eval(expression)
                D,p=ks_2samp(data,sampledDist)
            else:
                D,p=kstest(data,dist,N=samplesFromDists,args=dists_and_args[dist])
        except:
            continue
        returnable[dist]={'KS':D,'p-value':p}
    return returnable

a=lambda m,std: m-std*sqrt(12.)/2.
b=lambda m,std: m+std*sqrt(12.)/2.
sz=2000

sc=0.5 #shape 
datax=lognorm.rvs(sc,loc=0.,scale=1.,size=sz)
normalargs=(datax.mean(),datax.std())

#suppose these are the parameters you wanted to pass for each distribution
dists_and_args={'norm':normalargs,
               'uniform':(a(*normalargs),b(*normalargs)),
               'lognorm':[0.5,0.,1.]
              }
print "two sample KS:"
print KSSeveralDists(datax,dists_and_args,samplesFromDists=sz,twosampleKS=True)
print "one sample KS:"
print KSSeveralDists(datax,dists_and_args,samplesFromDists=sz,twosampleKS=False)

它给出的输出如下:

two sample KS: {'lognorm': {'KS': 0.023499999999999965, 'p-value': 0.63384188886455217}, 'norm': {'KS': 0.10600000000000004, 'p-value': 2.918766666723155e-10}, 'uniform': {'KS': 0.15300000000000002, 'p-value': 6.443660021191129e-21}}

one sample KS: {'lognorm': {'KS': 0.01763415915126032, 'p-value': 0.56275820961065193}, 'norm': {'KS': 0.10792612430093562, 'p-value': 0.0}, 'uniform': {'KS': 0.14910036159697559, 'p-value': 0.0}}

Note: For the scipy.stats uniform distribution, a and b are taken as a=loc and b=loc + scale (see documentation).

于 2016-10-26T09:05:02.600 回答