到目前为止,没有一个答案指向正确的方向。
@idr接受的答案是混淆lm
和summary.lm
。lm
根本不计算诊断统计;相反,summary.lm
确实如此。所以他在说summary.lm
。
@Jake的答案是关于 QR 分解和 LU / Choleksy 分解的数值稳定性的事实。Aravindakshan的回答扩展了这一点,指出了两个操作背后的浮点运算量(尽管正如他所说,他没有计入计算矩阵叉积的成本)。但是,不要将 FLOP 计数与内存成本混淆。实际上这两种方法在 LINPACK / LAPACK 中的内存使用情况相同。具体来说,他认为 QR 方法需要更多 RAM 来存储Q
因子的论点是虚假的。lm()中解释的压缩存储:什么是 LINPACK / LAPACK 中的 QR 分解返回的 qraux阐明了如何计算和存储 QR 分解。QR vs Chol的速度问题在我的回答中有详细说明:为什么内置的 lm 函数在 R 中这么慢?,而我对fasterlm
的回答提供了一个使用Choleksy方法的小程序lm.chol
,比QR方法快3倍。
@Greg的回答/建议biglm
很好,但它没有回答问题。既然biglm
提到了,我会指出QR 分解在lm
和biglm
中不同。biglm
计算户主反射,使所得R
因子具有正对角线。有关详细信息,请参阅通过 QR 分解的 Cholesky 因子。这样做的原因biglm
是,结果R
将与 Cholesky 因子相同,有关信息,请参阅R 中的 QR 分解和 Choleski 分解。此外,除了biglm
,您还可以使用mgcv
. 阅读我的答案:biglm
预测无法分配大小为 xx.x MB 的向量以获得更多信息。
总结之后,是时候发布我的答案了。
为了拟合线性模型,lm
将
- 生成模型框架;
- 生成模型矩阵;
- 要求
lm.fit
QR 分解;
- 返回 QR 分解的结果以及
lmObject
.
您说您的 5 列输入数据框需要 2 GB 的存储空间。对于 20 个因子级别,生成的模型矩阵有大约 25 列,占用 10 GB 存储空间。现在让我们看看调用lm
.
- [全局环境]最初您有 2 GB 的数据框存储空间;
- [
lm
环境]然后将其复制到模型框架中,花费2 GB;
- [
lm
环境]然后生成模型矩阵,消耗10GB;
- [
lm.fit
环境]复制模型矩阵,然后通过 QR 分解覆盖,花费 10 GB;
- [
lm
环境]返回结果lm.fit
,消耗10GB;
- [全局环境]的结果由
lm.fit
进一步返回lm
,额外消耗 10 GB;
- [全局环境]模型框架由
lm
, 消耗 2 GB 返回。
因此,总共需要 46 GB RAM,远远大于可用的 22 GB RAM。
实际上,如果lm.fit
可以“内联”到lm
中,我们可以节省 20 GB 的成本。但是没有办法在另一个 R 函数中内联一个 R 函数。
也许我们可以举一个小例子来看看周围发生了什么lm.fit
:
X <- matrix(rnorm(30), 10, 3) # a `10 * 3` model matrix
y <- rnorm(10) ## response vector
tracemem(X)
# [1] "<0xa5e5ed0>"
qrfit <- lm.fit(X, y)
# tracemem[0xa5e5ed0 -> 0xa1fba88]: lm.fit
所以确实,X
在传递到lm.fit
. 让我们看看有qrfit
什么
str(qrfit)
#List of 8
# $ coefficients : Named num [1:3] 0.164 0.716 -0.912
# ..- attr(*, "names")= chr [1:3] "x1" "x2" "x3"
# $ residuals : num [1:10] 0.4 -0.251 0.8 -0.966 -0.186 ...
# $ effects : Named num [1:10] -1.172 0.169 1.421 -1.307 -0.432 ...
# ..- attr(*, "names")= chr [1:10] "x1" "x2" "x3" "" ...
# $ rank : int 3
# $ fitted.values: num [1:10] -0.466 -0.449 -0.262 -1.236 0.578 ...
# $ assign : NULL
# $ qr :List of 5
# ..$ qr : num [1:10, 1:3] -1.838 -0.23 0.204 -0.199 0.647 ...
# ..$ qraux: num [1:3] 1.13 1.12 1.4
# ..$ pivot: int [1:3] 1 2 3
# ..$ tol : num 1e-07
# ..$ rank : int 3
# ..- attr(*, "class")= chr "qr"
# $ df.residual : int 7
请注意,紧凑的 QR 矩阵qrfit$qr$qr
与模型矩阵一样大X
。它是在内部创建lm.fit
的,但在退出时lm.fit
,它会被复制。所以总的来说,我们将有 3 个“副本” X
:
- 全球环境中的原始版本;
- 复制到
lm.fit
中的那个,被 QR 分解覆盖;
- 返回的那个
lm.fit
。
在您的情况下,X
是 10 GB,因此单独相关的内存成本lm.fit
已经是 30 GB。更不用说与lm
.
另一方面,让我们看看
solve(crossprod(X), crossprod(X,y))
X
占用 10 GB,但crossprod(X)
只是一个25 * 25
矩阵,并且crossprod(X,y)
只是一个长度为 25 的向量。与 相比,它们是如此之小X
,因此内存使用量根本不会增加。
也许您担心调用X
时会制作本地副本crossprod
?一点也不!与lm.fit
执行 read 和 write to不同X
,crossprod
只执行 reads X
,因此不进行复制。我们可以通过我们的玩具矩阵验证这一点X
:
tracemem(X)
crossprod(X)
您将看不到复制消息!
如果您想要以上所有内容的简短摘要,请点击此处:
lm.fit(X, y)
(甚至)的内存成本.lm.fit(X, y)
是 的三倍solve(crossprod(X), crossprod(X,y))
;
- 根据模型矩阵比模型框架大多少,内存成本
lm
是 的 3 ~ 6 倍solve(crossprod(X), crossprod(X,y))
。永远不会达到下限 3,而当模型矩阵与模型框架相同时,会达到上限 6。当没有因子变量或“类似因子”的术语(如bs()
和poly()
等)时就是这种情况。