4

从 mallet 中的各种文档中获得各种概率分布后,我应用以下代码来计算第一个和第二个文档之间的 KL 散度:

        Maths.klDivergence(double[] d1,double[] d2);

我应该如何解释获得的数据?例如,我得到:12.3640... 这是什么意思?这两个分布是近还是远?

4

1 回答 1

0

顾名思义,KL-Divergence 给出了一种分布与另一种分布的差异。它基本上是一个分布在逼近另一个分布时丢失的信息,这意味着 - 值越小,相似度越高。如果更相似,您不会丢失任何信息

于 2014-06-17T15:24:29.337 回答