我们正在尝试使用带有 foreach 的 BigMemory 库来并行我们的分析。但是, as.big.matrix 函数似乎总是使用 backingfile。我们的工作站有足够的内存,有没有办法在没有备份文件的情况下使用 bigMemory?
这段代码x.big.desc <-describe(as.big.matrix(x))
非常慢,因为它将数据写入C:\ProgramData\boost_interprocess\
. 不知何故,它比直接保存 x 慢,是 as.big.matrix 具有较慢的 I/O 吗?
这段代码x.big.desc <-describe(as.big.matrix(x, backingfile = ""))
非常快,但是,它也会将数据的副本保存到 %TMP% 目录。我们认为它之所以快,是因为 R 启动了后台写入过程,而不是实际写入数据。(R提示返回后我们可以在TaskManager中看到写线程)。
有没有办法仅将 BigMemory 与 RAM 一起使用,以便 foreach 循环中的每个工作人员都可以通过 RAM 访问数据?
谢谢您的帮助。