如何找到向量之间的余弦相似度?
我需要找到相似度来衡量两行文本之间的相关性。
例如,我有两个句子,例如:
用户界面系统
用户界面机器
…以及它们各自的向量在 tF-idf 之后,然后使用 LSI 进行归一化,例如
[1,0.5]
和[0.5,1]
。
如何测量这些向量之间的相似度?
如何找到向量之间的余弦相似度?
我需要找到相似度来衡量两行文本之间的相关性。
例如,我有两个句子,例如:
用户界面系统
用户界面机器
…以及它们各自的向量在 tF-idf 之后,然后使用 LSI 进行归一化,例如
[1,0.5]
和[0.5,1]
。
如何测量这些向量之间的相似度?
如果你想避免依赖第三方库来完成这样一个简单的任务,这里有一个简单的 Java 实现:
public static double cosineSimilarity(double[] vectorA, double[] vectorB) {
double dotProduct = 0.0;
double normA = 0.0;
double normB = 0.0;
for (int i = 0; i < vectorA.length; i++) {
dotProduct += vectorA[i] * vectorB[i];
normA += Math.pow(vectorA[i], 2);
normB += Math.pow(vectorB[i], 2);
}
return dotProduct / (Math.sqrt(normA) * Math.sqrt(normB));
}
请注意,该函数假定两个向量具有相同的长度。您可能需要明确检查它的安全性。
看看:http ://en.wikipedia.org/wiki/Cosine_similarity 。
如果你有向量 A 和 B。
相似度定义为:
cosine(theta) = A . B / ||A|| ||B||
For a vector A = (a1, a2), ||A|| is defined as sqrt(a1^2 + a2^2)
For vector A = (a1, a2) and B = (b1, b2), A . B is defined as a1 b1 + a2 b2;
So for vector A = (a1, a2) and B = (b1, b2), the cosine similarity is given as:
(a1 b1 + a2 b2) / sqrt(a1^2 + a2^2) sqrt(b1^2 + b2^2)
例子:
A = (1, 0.5), B = (0.5, 1)
cosine(theta) = (0.5 + 0.5) / sqrt(5/4) sqrt(5/4) = 4/5
public class CosineSimilarity extends AbstractSimilarity {
@Override
protected double computeSimilarity(Matrix sourceDoc, Matrix targetDoc) {
double dotProduct = sourceDoc.arrayTimes(targetDoc).norm1();
double eucledianDist = sourceDoc.normF() * targetDoc.normF();
return dotProduct / eucledianDist;
}
}
我最近为我在大学的信息检索部门做了一些 tf-idf 的工作。我使用了这种使用Jama: Java Matrix Package的余弦相似度方法。
有关完整的源代码,请参阅IR Math with Java : Similarity measure,非常好的资源,涵盖了一些不同的相似性测量。
对于 Java 中的矩阵代码,我建议使用Colt库。如果你有这个,代码看起来像(未经测试甚至编译):
DoubleMatrix1D a = new DenseDoubleMatrix1D(new double[]{1,0.5}});
DoubleMatrix1D b = new DenseDoubleMatrix1D(new double[]{0.5,1}});
double cosineDistance = a.zDotProduct(b)/Math.sqrt(a.zDotProduct(a)*b.zDotProduct(b))
上面的代码也可以更改为使用其中一种Blas.dnrm2()
方法或Algebra.DEFAULT.norm2()
用于范数计算。完全相同的结果,更具可读性取决于口味。
前段时间我从事文本挖掘工作时,我使用的是SimMetrics库,它在 Java 中提供了广泛的不同指标。如果碰巧您需要更多,那么总会有R 和 CRAN可供查看。
但是根据 Wikipedia 中的描述对其进行编码是相当微不足道的任务,并且可能是一个很好的练习。
对于使用Map(dimension -> magnitude)
Here is a scala version的向量的稀疏表示(您可以在Java 8中做类似的事情)
def cosineSim(vec1:Map[Int,Int],
vec2:Map[Int,Int]): Double ={
val dotProduct:Double = vec1.keySet.intersect(vec2.keySet).toList
.map(dim => vec1(dim) * vec2(dim)).sum
val norm1:Double = vec1.values.map(mag => mag * mag).sum
val norm2:Double = vec2.values.map(mag => mag * mag).sum
return dotProduct / (Math.sqrt(norm1) * Math.sqrt(norm2))
}
def cosineSimilarity(vectorA: Vector[Double], vectorB: Vector[Double]):Double={
var dotProduct = 0.0
var normA = 0.0
var normB = 0.0
var i = 0
for(i <- vectorA.indices){
dotProduct += vectorA(i) * vectorB(i)
normA += Math.pow(vectorA(i), 2)
normB += Math.pow(vectorB(i), 2)
}
dotProduct / (Math.sqrt(normA) * Math.sqrt(normB))
}
def main(args: Array[String]): Unit = {
val vectorA = Array(1.0,2.0,3.0).toVector
val vectorB = Array(4.0,5.0,6.0).toVector
println(cosineSimilarity(vectorA, vectorA))
println(cosineSimilarity(vectorA, vectorB))
}
斯卡拉版本