我正在尝试通过 R 使用 H2O 来使用一个大型数据集(约 10GB)的子集构建多个模型。这些数据是一年的数据,我正在尝试构建 51 个模型(即在第 1 周进行训练,在第 2 周进行预测等),每周大约有 1.5-250 万行,包含 8 个变量。
我已经在循环中完成了这个,我知道这并不总是 R 中的最佳方式。我发现的另一个问题是 H2O 实体会累积先前的对象,所以我创建了一个函数来删除除主要数据之外的所有对象放。
h2o.clean <- function(clust = localH2O, verbose = TRUE, vte = c()){
# Find all objects on server
keysToKill <- h2o.ls(clust)$Key
# Remove items to be excluded, if any
keysToKill <- setdiff(keysToKill, vte)
# Loop thru and remove items to be removed
for(i in keysToKill){
h2o.rm(object = clust, keys = i)
if(verbose == TRUE){
print(i);flush.console()
}
}
# Print remaining objects in cluster.
h2o.ls(clust)
}
该脚本运行良好一段时间然后崩溃 - 通常抱怨内存不足并交换到磁盘。
这里有一些伪代码来描述这个过程
# load h2o library
library(h2o)
# create h2o entity
localH2O = h2o.init(nthreads = 4, max_mem_size = "6g")
# load data
dat1.hex = h2o.importFile(localH2O, inFile, key = "dat1.hex")
# Start loop
for(i in 1:51){
# create test/train hex objects
train1.hex <- dat1.hex[dat1.hex$week_num == i,]
test1.hex <- dat1.hex[dat1.hex$week_num == i + 1,]
# train gbm
dat1.gbm <- h2o.gbm(y = 'click_target2', x = xVars, data = train1.hex
, nfolds = 3
, importance = T
, distribution = 'bernoulli'
, n.trees = 100
, interaction.depth = 10,
, shrinkage = 0.01
)
# calculate out of sample performance
test2.hex <- cbind.H2OParsedData(test1.hex,h2o.predict(dat1.gbm, test1.hex))
colnames(test2.hex) <- names(head(test2.hex))
gbmAuc <- h2o.performance(test2.hex$X1, test2.hex$click_target2)@model$auc
# clean h2o entity
h2o.clean(clust = localH2O, verbose = F, vte = c('dat1.hex'))
} # end loop
我的问题是,如果有的话,在独立实体中管理数据和内存的正确方法是什么(这不是在 hadoop 或集群上运行 - 只是一个大型 EC2 实例(~ 64gb RAM + 12 CPU))过程?我是否应该在每次循环后杀死并重新创建 H2O 实体(这是原始过程,但每次从文件中读取数据每次迭代增加约 10 分钟)?每次循环后是否有适当的方法来垃圾收集或释放内存?
任何建议,将不胜感激。