4

我已经标记了二维数据。集合中有 4 个标签,我知道每个点与其标签的对应关系。我想,给定一个新的任意数据点,找出它具有 4 个标签中的每一个的概率。它必须属于一个且仅属于一个标签,因此概率总和应为 1。

到目前为止,我所做的是sklearn.mixture.GaussianMixture在与每个标签关联的数据点上训练 4 个独立的 sklearn GMM ( )。应该注意的是,我不希望训练具有 4 个组件的单个 GMM,因为我已经知道标签,并且不想以比我已知标签更糟糕的方式重新聚类。(似乎有一种方法可以为函数提供Y=标签fit(),但我似乎无法让它工作)。

在此处输入图像描述

在上图中,点由它们的已知标签着色,等高线表示适合这 4 组点的四个独立 GMM。

对于一个新观点,我尝试通过以下几种方式计算其标签的概率:

  1. GaussianMixture.predict_proba():因为每个独立的 GMM 只有一个分布,所以这只是返回所有模型的概率 1。

  2. GaussianMixture.score_samples():根据文档,这个返回“每个样本的加权对数概率”。我的程序是,对于一个新点,我从代表上述每个分布的四个独立训练的 GMM 中的每一个对该函数进行四次调用。我确实在这里得到了半明智的结果——通常是正确模型的正数和三个不正确模型中的每一个的负数,对于相交分布边界附近的点,结果更加混乱。这是一个典型的明确结果:

2.904136, -60.881554, -20.824841, -30.658509

这个点实际上与第一个标签相关联,并且最不可能是第二个标签(离第二个分布最远)。我的问题是如何将上述分数转换为总和为 1 的概率,并准确表示给定点属于四个分布中的一个且仅属于其中一个的概率?鉴于这些是 4 个独立模型,这可能吗?如果没有,是否有另一种我忽略的方法可以让我根据已知标签训练 GMM,并提供总和为 1 的概率?

4

1 回答 1

1

一般来说,如果你不知道分数是如何计算的,但你知道分数和概率之间存在单调关系,你可以简单地使用 softmax 函数来近似概率,并带有一个可选的温度变量来控制分布的尖峰。

V成为您的分数列表并tau成为温度。然后,

p = np.exp(V/tau) / np.sum(np.exp(V/tau))

是你的答案。

PS:幸运的是,我们知道 sklearn GMM 评分是如何工作的,而 softmaxtau=1就是您的确切答案。

于 2018-11-29T19:33:35.737 回答