0

我正在解决一个混乱的问题。

我有一套 100 observatons。每个观察由 3 个特征描述。我必须将这些观察分为两组(每个观察都有一个标签)。

在对观察结果进行聚类之前,我首先计算观察结果之间的pdist值,然后使用 MATLAB 中的 mdscale 函数返回到 3 维。如果与使用原始观测值相比,我使用transformed_observationkmean 聚类算法作为输入,以获得更好的聚类结果(即聚类与标签匹配)。谁能解释我为什么???我刚试过...

在这里你可以找到我的步骤...

% select the dimensions of my features
dimensions = 3;

% generate an example data set
observations = rand(100,dimensions);

% if yes use the combination of pdist + mdscale
use_dissimilarity = 'yes';

if strcmp(use_dissimilarity,'yes')
  %compute pdist between features
  dissimilarity = pdist(observations,@kullback_leibler_divergence);
  %re-transform features in 3 dimensions                             
  transformed_observations = mdscale(dissimilarity,dimensions);
else
  transformed_observations = observations;
end

%cluster observations 
numbercluster = 2;
[IDX, clustercentroids] = kmeans(transformed_observations, numbercluster,...
                    'emptyaction','singleton',...
                    'replicates',11,'display','off');
4

1 回答 1

1

pdist计算成对距离(使用 KL-Divergence)。

mdscale(多维缩放)现在将尝试将距离嵌入欧几里德向量空间,以便最好地保留它们。

K-means适用于平方欧几里得距离(以及其他一些 Bregman 散度)。

因此,在我看来,Matlab 允许您使用其他一些距离是一个错误:

'sqeuclidean' (默认) | '城市街区' | '余弦' | '相关性' | '汉明'

如果 KL-Divergence 适合您的数据集,这并不奇怪,因为这种结构允许在 KL-Divergence(近似值)上使用 k-means。

于 2016-01-27T01:19:45.453 回答