Find centralized, trusted content and collaborate around the technologies you use most.
Teams
Q&A for work
Connect and share knowledge within a single location that is structured and easy to search.
从 mallet 中的各种文档中获得各种概率分布后,我应用以下代码来计算第一个和第二个文档之间的 KL 散度:
Maths.klDivergence(double[] d1,double[] d2);
我应该如何解释获得的数据?例如,我得到:12.3640... 这是什么意思?这两个分布是近还是远?
顾名思义,KL-Divergence 给出了一种分布与另一种分布的差异。它基本上是一个分布在逼近另一个分布时丢失的信息,这意味着 - 值越小,相似度越高。如果更相似,您不会丢失任何信息