0

假设我想在省略协变量之前和之后评估线性模型的优劣,并且我想实现某种自举。

我试图引导两个模型的残差之和,然后我应用 Kolmogorov-Smirnov 检验来评估这两个模型是否是相同的分布。

最小的工作代码:

lm.statistic.resid <- function(data,i){
    d<-data[i,]

    r.gressor <- colnames(data)[1]
    c.variates <- colnames(data)[-1]

    lm.boot <- lm(data=d)

    out <- sum(resid(lm.boot))

    return(out)
}

df.restricted <- mtcars[ , names(mtcars) != c("wt")]

classical.lm  <- lm(mtcars)
restricted.lm  <- lm(df.restricted)

boot.regression.full = boot(df,
                        statistic=lm.statistic.resid,
                        R=1000)

boot.regression.restricted = boot(df.restricted,
                        statistic=lm.statistic.resid,
                        R=1000)
x <- boot.regression.restricted$t
y <- boot.regression.full$t

ks.test(x,y)

但是,在删除wt(具有统计学意义)和am(不是)时,我得到了相同的结果。

如果我删除wt ,我应该期望一个更小的 p 值。

4

0 回答 0