RServe 生成的进程是否有可能共享一些加载到内存中的公共库?想象一下,我需要同时在 100 个不同的 RConnections 上执行下面的代码。
library(libraryOfSize40MB)
fun()
这意味着我需要大约 3.9GB 的内存来加载库。我宁愿加载库一次然后执行fun()
一百次,这样我就可以在便宜的主机上运行它。
也许这有帮助? https://github.com/su/Rserve/blob/master/NEWS#L40-L48
RServe 生成的进程是否有可能共享一些加载到内存中的公共库?想象一下,我需要同时在 100 个不同的 RConnections 上执行下面的代码。
library(libraryOfSize40MB)
fun()
这意味着我需要大约 3.9GB 的内存来加载库。我宁愿加载库一次然后执行fun()
一百次,这样我就可以在便宜的主机上运行它。
也许这有帮助? https://github.com/su/Rserve/blob/master/NEWS#L40-L48
有可能的。您必须使用run.serve
前面加载的库从 R shell 运行 RServe:
library(Rserve)
#load libraries so all connections will share them
library("yaml")
library("reshape")
library("rjson")
library("zoo")
(...)
library("stringr")
run.Rserve(debug = TRUE, port = 6311, remote=TRUE, auth=FALSE, args="--no-save", config.file = "/etc/Rserve.conf")
每个新连接都可以看到这个库
library(RSclient)
con = RS.connect(host='10.1.2.3')
RS.eval(con, quote(search()))
> #lots of libraries available