假设我想在省略协变量之前和之后评估线性模型的优劣,并且我想实现某种自举。
我试图引导两个模型的残差之和,然后我应用 Kolmogorov-Smirnov 检验来评估这两个模型是否是相同的分布。
最小的工作代码:
lm.statistic.resid <- function(data,i){
d<-data[i,]
r.gressor <- colnames(data)[1]
c.variates <- colnames(data)[-1]
lm.boot <- lm(data=d)
out <- sum(resid(lm.boot))
return(out)
}
df.restricted <- mtcars[ , names(mtcars) != c("wt")]
classical.lm <- lm(mtcars)
restricted.lm <- lm(df.restricted)
boot.regression.full = boot(df,
statistic=lm.statistic.resid,
R=1000)
boot.regression.restricted = boot(df.restricted,
statistic=lm.statistic.resid,
R=1000)
x <- boot.regression.restricted$t
y <- boot.regression.full$t
ks.test(x,y)
但是,在删除wt(具有统计学意义)和am(不是)时,我得到了相同的结果。
如果我删除wt ,我应该期望一个更小的 p 值。