16

我有一个非常大的列表X和一个矢量化函数f。我想计算f(X),但如果我用单核来计算,这将需要很长时间。我有(访问)一个 48 核服务器。并行计算的最简单方法是f(X)什么?以下不是正确答案:

library(foreach)
library(doMC)
registerDoMC()

foreach(x=X, .combine=c) %dopar% f(x)

上面的代码确实会并行化 的计算f(X),但它会通过f分别应用于 的每个元素来实现X。这忽略了向量化的性质,f因此可能会使事情变慢,而不是更快。我不想将f元素应用于X,而是想分成X大小合理的块并应用于f这些块。

那么,我是否应该手动拆分X为 48 个大小相等的子列表,然后并行应用f到每个子列表,然后手动将结果放在一起?或者是否有为此设计的软件包?

如果有人想知道,我的具体用例在这里

4

5 回答 5

6

虽然这是一个较老的问题,但对于通过谷歌偶然发现这个问题的每个人(比如我)来说,这可能会很有趣:看看包中的pvec函数multicore。我认为它完全符合您的要求。

于 2011-08-11T08:55:13.600 回答
5

这是我的实现。它是一个函数chunkmap,它接受一个向量化函数、一个应该向量化的参数列表和一个不应该向量化的参数列表(即常量),并返回与直接在参数上调用函数相同的结果,除了结果是并行计算的。对于函数f、向量参数v1v2v3和标量参数s1, s2,以下应返回相同的结果:

f(a=v1, b=v2, c=v3, d=s1, e=s2)
f(c=v3, b=v2, e=s2, a=v1, d=s1)
chunkapply(FUN=f, VECTOR.ARGS=list(a=v1, b=v2, c=v3), SCALAR.ARGS=list(d=s1, e=s2))
chunkapply(FUN=f, SCALAR.ARGS=list(e=s2, d=s1), VECTOR.ARGS=list(a=v1, c=v3, b=v2))

由于chunkapply函数不可能知道哪些参数f是矢量化的,哪些不是矢量化的,因此您可以指定何时调用它,否则您将得到错误的结果。您通常应该命名您的参数以确保它们被正确绑定。

library(foreach)
library(iterators)
# Use your favorite doPar backend here
library(doMC)
registerDoMC()

get.chunk.size <- function(vec.length,
                           min.chunk.size=NULL, max.chunk.size=NULL,
                           max.chunks=NULL) {
  if (is.null(max.chunks)) {
    max.chunks <- getDoParWorkers()
  }
  size <- vec.length / max.chunks
  if (!is.null(max.chunk.size)) {
    size <- min(size, max.chunk.size)
  }
  if (!is.null(min.chunk.size)) {
    size <- max(size, min.chunk.size)
  }
  num.chunks <- ceiling(vec.length / size)
  actual.size <- ceiling(vec.length / num.chunks)
  return(actual.size)
}

ichunk.vectors <- function(vectors=NULL,
                           min.chunk.size=NULL,
                           max.chunk.size=NULL,
                           max.chunks=NULL) {
  ## Calculate number of chunks
  recycle.length <- max(sapply(vectors, length))
  actual.chunk.size <- get.chunk.size(recycle.length, min.chunk.size, max.chunk.size, max.chunks)
  num.chunks <- ceiling(recycle.length / actual.chunk.size)

  ## Make the chunk iterator
  i <- 1
  it <- idiv(recycle.length, chunks=num.chunks)
  nextEl <- function() {
    n <- nextElem(it)
    ix <- seq(i, length = n)
    i <<- i + n
    vchunks <- foreach(v=vectors) %do% v[1+ (ix-1) %% length(v)]
    names(vchunks) <- names(vectors)
    vchunks
  }
  obj <- list(nextElem = nextEl)
  class(obj) <- c("ichunk", "abstractiter", "iter")
  obj
}

chunkapply <- function(FUN, VECTOR.ARGS, SCALAR.ARGS=list(), MERGE=TRUE, ...) {
  ## Check that the arguments make sense
  stopifnot(is.list(VECTOR.ARGS))
  stopifnot(length(VECTOR.ARGS) >= 1)
  stopifnot(is.list(SCALAR.ARGS))
  ## Choose appropriate combine function
  if (MERGE) {
    combine.fun <- append
  } else {
    combine.fun <- foreach:::defcombine
  }
  ## Chunk and apply, and maybe merge
  foreach(vchunk=ichunk.vectors(vectors=VECTOR.ARGS, ...),
          .combine=combine.fun,
          .options.multicore = mcoptions) %dopar%
  {
    do.call(FUN, args=append(vchunk, SCALAR.ARGS))
  }
}

## Only do chunkapply if it will run in parallel
maybe.chunkapply <- function(FUN, VECTOR.ARGS, SCALAR.ARGS=list(), ...) {
  if (getDoParWorkers() > 1) {
    chunkapply(FUN, VECTOR.ARGS, SCALAR.ARGS, ...)
  } else {
    do.call(FUN, append(VECTOR.ARGS, SCALAR.ARGS))
  }
}

以下是一些示例,显示chunkapply(f,list(x))产生与 相同的结果f(x)。我将 max.chunk.size 设置得非常小,以确保实际使用分块算法。

> # Generate all even integers from 2 to 100 inclusive
> identical(chunkapply(function(x,y) x*y, list(1:50), list(2), max.chunk.size=10), 1:50 * 2)
[1] TRUE

> ## Sample from a standard normal distribution, then discard values greater than 1
> a <- rnorm(n=100)
> cutoff <- 1
> identical(chunkapply(function(x,limit) x[x<=limit], list(x=a), list(limit=cutoff), max.chunk.size=10), a[a<cutoff])
[1] TRUE

如果有人有比“chunkapply”更好的名字,请提出建议。

编辑:

正如另一个答案指出的那样,pvec在多核包中调用了一个函数,它与我所写的功能非常相似。对于简单的情况,您应该这样做,并且您应该投票支持 Jonas Rauch 的答案。但是,我的函数更通用一些,因此如果以下任何一项适用于您,您可能需要考虑使用我的函数:

  • 您需要使用多核以外的并行后端(例如 MPI)。我的函数使用 foreach,因此您可以使用任何为 foreach 提供后端的并行化框架。
  • 您需要传递多个矢量化参数。pvec仅对单个参数进行矢量化,因此您无法轻松实现并行矢量化加法pvec,例如。我的函数允许您指定任意参数。
于 2011-04-13T17:31:08.897 回答
3

itertools 包旨在解决此类问题。在这种情况下,我会使用isplitVector

n <- getDoParWorkers()
foreach(x=isplitVector(X, chunks=n), .combine='c') %dopar% f(x)

对于这个例子,pvec毫无疑问更快更简单,但是这可以在 Windows 上使用 doParallel 包,例如。

于 2013-03-14T16:23:29.090 回答
0

Map-Reduce 可能是您正在寻找的;它已被移植到 R

于 2011-04-06T19:52:37.903 回答
0

这样的事情怎么样?R 将利用所有可用内存并multicore在所有可用内核上并行化。

library(multicore)
result = mclapply(X, function,mc.preschedule=FALSE, mc.set.seed=FALSE)
于 2011-04-06T20:12:32.820 回答