6

我试图了解如何使用 R 并行化我的一些代码。因此,在下面的示例中,我想使用 k-means 使用 2、3、4、5、6 个中心对数据进行聚类,同时使用 20 次迭代。这是代码:

library(parallel)
library(BLR)

data(wheat)

parallel.function <- function(i) {
    kmeans( X[1:100,100], centers=?? , nstart=i )
}

out <- mclapply( c(5, 5, 5, 5), FUN=parallel.function )

我们如何同时并行迭代和中心?如何跟踪输出,假设我想在所有迭代和中心中保留 k-means 的所有输出,只是为了学习如何?

4

3 回答 3

6

起初这对我来说看起来很简单......然后我尝试了它。然而,在我午休期间进行了大量的猴子打字和手掌拍脸之后,我得出了这个结论:

library(parallel)
library(BLR)

data(wheat)

mc = mclapply(2:6, function(x,centers)kmeans(x, centers), x=X)

虽然我没有检查集群的合理性,但它看起来是正确的。

> summary(mc)
     Length Class  Mode
[1,] 9      kmeans list
[2,] 9      kmeans list
[3,] 9      kmeans list
[4,] 9      kmeans list
[5,] 9      kmeans list

经过反思,命令语法似乎是明智的——尽管许多其他失败的东西似乎也很合理……帮助文档中的示例可能不是那么好。

希望能帮助到你。

编辑 这里要求的是两个变量nstartcenters

(pars = expand.grid(i=1:3, cent=2:4))

  i cent
1 1    2
2 2    2
3 3    2
4 1    3
5 2    3
6 3    3
7 1    4
8 2    4
9 3    4

L=list()
# zikes horrible
pars2=apply(pars,1,append, L)
mc = mclapply(pars2, function(x,pars)kmeans(x, centers=pars$cent,nstart=pars$i ), x=X)

> summary(mc)
      Length Class  Mode
 [1,] 9      kmeans list
 [2,] 9      kmeans list
 [3,] 9      kmeans list
 [4,] 9      kmeans list
 [5,] 9      kmeans list
 [6,] 9      kmeans list
 [7,] 9      kmeans list
 [8,] 9      kmeans list
 [9,] 9      means list

你觉得他们的苹果怎么样?

于 2013-12-06T13:59:39.143 回答
5

有一个名为knor的 CRAN 包源自一篇研究论文,该论文使用 Elkan 剪枝算法的内存高效变体提高了性能。它比这些答案中的所有内容都快一个数量级。

install.packages("knor")
require(knor)
iris.mat <- as.matrix(iris[,1:4])
k <- length(unique(iris[, dim(iris)[2]])) # Number of unique classes
nthread <- 4
kms <- Kmeans(iris.mat, k, nthread=nthread)
于 2018-05-02T21:27:04.650 回答
1

您可以使用并行从多个内核上的不同随机起点尝试 K-Means。

下面的代码是一个例子。(K-means 中的 K=K,N= 随机起点的数量,C = 您想要使用的核心数量)

suppressMessages( library("Matrix") )
suppressMessages( library("irlba") )
suppressMessages( library("stats") )
suppressMessages( library("cluster") )
suppressMessages( library("fpc") )
suppressMessages( library("parallel") )

#Calculate KMeans results
calcKMeans <- function(matrix, K, N, C){
  #Parallel running from various of random starting points (Using C cores)
  results <- mclapply(rep(N %/% C, C), FUN=function(nstart) kmeans(matrix, K, iter.max=15, nstart=nstart), mc.cores=C);
  #Find the solution with smallest total within sum of square error
  tmp <- sapply(results, function(r){r[['tot.withinss']]})
  km <- results[[which.min(tmp)]]  
  #return cluster, centers, totss, withinss, tot.withinss, betweenss, size
  return(km)
}

runKMeans <- function(fin_uf, K, N, C, 
                      #fout_center, fout_label, fout_size, 
                      fin_record=NULL, fout_prediction=NULL){
  uf = read.table(fin_uf)
  km = calcKMeans(uf, K, N, C)
  rm(uf)
  #write.table(km$cluster, file=fout_label, row.names=FALSE, col.names=FALSE)
  #write.table(km$center, file=fout_center, row.names=FALSE, col.names=FALSE)
  #write.table(km$size, file=fout_size, row.names=FALSE, col.names=FALSE)
  str(km)

  return(km$center)
}

希望能帮助到你!

于 2014-05-22T21:41:42.370 回答