1

我正在尝试使用 Mclust 对我的经验数据进行聚类。使用以下非常简单的代码时:

library(reshape2)
library(mclust)

data <- read.csv(file.choose(), header=TRUE,  check.names = FALSE)
data_melt <- melt(data, value.name = "value", na.rm=TRUE)

fit <- Mclust(data$value, modelNames="E", G = 1:7)
summary(fit, parameters = TRUE)

R给了我以下结果:

---------------------------------------------------- 
Gaussian finite mixture model fitted by EM algorithm 
---------------------------------------------------- 

Mclust E (univariate, equal variance) model with 4 components: 

log-likelihood    n df       BIC       ICL
  -20504.71 3258  8 -41074.13 -44326.69

Clustering table:
1    2    3    4 
0 2271  896   91 

Mixing probabilities:
    1         2         3         4 
0.2807685 0.4342499 0.2544305 0.0305511 

Means:
   1        2        3        4 
1381.391 1381.715 1574.335 1851.667 

Variances:
   1        2        3        4 
7466.189 7466.189 7466.189 7466.189 

编辑:这里我的数据下载https://www.file-upload.net/download-14320392/example.csv.html

我不明白为什么 Mclust 给了我一个空簇 (0),尤其是与第二个簇的平均值几乎相同。这仅在专门寻找单变量、等方差模型时才会出现。使用例如 modelNames="V" 或将其保留为默认值,不会产生此问题。

这个线程:集群不包含观察有一个类似的问题,但如果我理解正确,这似乎是由于随机生成的数据?

我对我的问题在哪里或者我是否遗漏了任何明显的东西一无所知。任何帮助表示赞赏!

4

1 回答 1

1

正如您所指出的,集群 1 和 2 的平均值非常相似,并且碰巧那里有很多数据(请参见直方图上的峰值):

set.seed(111)
data <- read.csv("example.csv", header=TRUE,  check.names = FALSE)
fit <- Mclust(data$value, modelNames="E", G = 1:7)
hist(data$value,br=50)
abline(v=fit$parameters$mean,
col=c("#FF000080","#0000FF80","#BEBEBE80","#BEBEBE80"),lty=8)

在此处输入图像描述

简而言之,mclust 或 gmm 是概率模型,它估计集群的均值/方差以及属于每个集群的每个点的概率。这与 k-means 提供的硬分配不同。所以模型的可能性是属于每个集群的每个数据点的概率之和,您也可以在 mclust 的出版物中查看它

在这个模型中,聚类 1 和聚类 2 的均值接近,但它们的预期比例不同:

fit$parameters$pro
[1] 0.28565736 0.42933294 0.25445342 0.03055627

这意味着如果您有一个数据点在 1 或 2 的平均值附近,它将被一致地分配给集群 2,例如让我们尝试预测从 1350 到 1400 的数据点:

head(predict(fit,1350:1400)$z)
             1         2          3            4
[1,] 0.3947392 0.5923461 0.01291472 2.161694e-09
[2,] 0.3945941 0.5921579 0.01324800 2.301397e-09
[3,] 0.3944456 0.5919646 0.01358975 2.450108e-09
[4,] 0.3942937 0.5917661 0.01394020 2.608404e-09
[5,] 0.3941382 0.5915623 0.01429955 2.776902e-09
[6,] 0.3939790 0.5913529 0.01466803 2.956257e-09

$classification是通过取概率最大的列来获得的。所以,同样的例子,一切都分配给2:

 head(predict(fit,1350:1400)$classification)
[1] 2 2 2 2 2 2

要回答您的问题,不,您没有做错任何事情,至少对于 GMM 的这种实现来说,这是一个后备。我会说这有点过拟合,但您基本上只能采用具有成员资格的集群。

如果您使用 model="V",我发现解决方案同样有问题:

fitv <- Mclust(Data$value, modelNames="V", G = 1:7)
plot(fitv,what="classification")

在此处输入图像描述

使用 scikit learn GMM 我没有看到类似的问题。因此,如果您需要使用具有球面均值的高斯混合,请考虑使用模糊 kmeans:

library(ClusterR)
plot(NULL,xlim=range(data),ylim=c(0,4),ylab="cluster",yaxt="n",xlab="values")
points(data$value,fit_kmeans$clusters,pch=19,cex=0.1,col=factor(fit_kmeans$clusteraxis(2,1:3,as.character(1:3))

在此处输入图像描述

如果不需要等方差,也可以使用ClusterR 包中的GMM函数。

于 2020-10-12T23:01:34.770 回答