我对R有点陌生,所以请原谅这里的新手...
我正在用 R 编写代码以在脚本中加载 1000 个保存的数据帧(文件),该脚本对每个文件中的数据运行一个函数并将结果值存储在一个向量中。我必须用不同的功能一遍又一遍地做这件事,目前这需要很长时间。
我正在尝试使用多核 mclapply 并行化该过程,但不幸的是,从 2 到 8 个内核的任何东西似乎都比仅在一个内核上运行它需要更长的时间。
由于磁盘 I/O 限制,这个想法从根本上来说是不合理的吗?多核,甚至 R,不是正确的解决方案吗?以 Python 之类的方式打开文件然后在内容上运行 R 函数会是比 R 更好的路径吗?
对此的任何指导或想法将不胜感激 -
为清楚起见添加了代码:
library(multicore)
project.path = "/pathtodata/"
#This function reads the file location and name, then loads it and runs a simple statistic
running_station_stats <- function(nsrdb_stations)
{
varname <- "column_name"
load(file = paste(project.path, "data/",data_set_list[1], sep = ""))
tempobj <- as.data.frame(coredata(get(data_set_list[2])))
mean(tempobj[[varname]],na.rm=TRUE)
}
options(cores = 2)
#This file has a list of R data files data_set_list[1] and the names they were created with data_set_list[2]
load(file = paste(project.path, "data/data_set_list.RData", sep = ""))
thelist <- list()
thelist[[1]] <- data_set_list[1:50,]
thelist[[2]] <- data_set_list[51:100,]
thelist[[3]] <- data_set_list[101:150,]
thelist[[4]] <- data_set_list[151:200,]
#All three of these are about the same speed to run regardless of the num of cores
system.time(
{
apply(nsrdb_stations[which(nsrdb_stations$org_stations==TRUE),][1:200,],1,running_station_stats)
})
system.time(
lapply(thelist, apply, 1, running_station_stats)
)
system.time(
mclapply(thelist, apply, 1, running_station_stats)
)