2

我必须逐步将回归函数应用于时间序列数据(向量“时间”和“tm”,并且我正在使用 For 循环,如下所示:

top<-length(time)
for(k in 2:top){
    lin.regr<-lm(tm[1:k] ~ log(time[1:k]))
    slope[k]<-coef(lin.regr)[2]
}

但是对于大约 10k 的向量长度,它变得非常慢。有没有更快的选择(也许使用应用功能)?

在一个更简单的问题中:如果我有一个像 x<-c(1:10) 这样的向量,我如何构建一个包含(例如)x 值的累进总和的向量?像:

x
1 2 3 4 5 6 7 8 9 10
y
1  3  6 10 15 21 28 36 45 55
4

2 回答 2

3

好吧,除非您可以矢量化,否则没有快速循环替代方案。在某些情况下,像这样的函数ave, aggregate, ddply, tapply, ...可以给你带来巨大的胜利,但诀窍通常在于使用更快的函数,比如 cumsum (参见 user615147 的答案)

为了显示 :

top <- 1000
tm <- rnorm(top,10)   
time <- rnorm(top,10)

> system.time(
+ results <- sapply(2:top,function (k) coef(lm(tm[1:k] ~ log(time[1:k])))[2])
+ )
   user  system elapsed 
   4.26    0.00    4.27 

> system.time(
+ results <- lapply(2:top,function (k) coef(lm(tm[1:k] ~ log(time[1:k])))[2])
+ )
   user  system elapsed 
   4.25    0.00    4.25 

> system.time(
+ results <- for(k in 2:top) coef(lm(tm[1:k] ~ log(time[1:k])))[2]
+ )
   user  system elapsed 
   4.25    0.00    4.25 

> system.time(
+ results <- for(k in 2:top) lm.fit(matrix(log(time[1:k]),ncol=1),
+                                 tm[1:k])$coefficients[2]
+ )
   user  system elapsed 
   0.43    0.00    0.42 

唯一更快的解决方案是lm.fit(). 不要误会,每次运行分析时时间都会有所不同,因此 0.02 的差异在 R 中并不显着,sapply, for并且lapply在这里都一样快。诀窍是使用lm.fit.

如果您有一个名为 Data 的数据框,则可以使用以下内容:

Data <- data.frame(Y=rnorm(top),X1=rnorm(top),X2=rnorm(top))

mf <- model.matrix(Y~X1+X2,data=Data)
results <- sapply(2:top, function(k)
  lm.fit(mf[1:k,],Data$Y[1:k])$coefficients[2]
)

作为更通用的解决方案。

于 2011-02-24T17:17:43.540 回答
-1
results <- sapply(2:top,function (k) coef(lm(tm[1:k] ~ log(time[1:k])))[2])

~apply 系列函数是在 R 中迭代的最快方法。

也可以看看使用 lm.fit() 来加快你的回归速度

cumsum(1:10)

第二个问题是怎么做的

于 2011-02-24T16:08:31.137 回答