6

感谢那些回答了我之前的问题并让我走到这一步的人。

我有一个包含大约 25,000 个向量的表,每个向量有 48 个维度,值范围为 0-255。

我正在尝试开发一种局部敏感哈希(http://en.wikipedia.org/wiki/Locality-sensitive_hashing)算法来查找近邻或最近邻点。

我目前的 LSH 功能是这样的:

def lsh(vector, r = 1.0, a = None, b = None):
    if not a:
        a = [normalvariate(10, 4) for i in range(48)]
    if not b:
        b = uniform(0, r)
    hashVal = floor((sum([a[i]*vector[i] for i in range(48)]) + b)/r)
    return int(hashVal)

在这一点上我的问题是:

答:我的代码的“normalvariate(10, 4)”部分是否有最佳值。这是内置在 random.normalvariate ( http://docs.python.org/library/random.html#random.normalvariate ) 函数中的 python,我使用它来生成“d 维向量,其条目独立于稳定分布中选择” . 从我的实验来看,这些值似乎并不重要。

B:在维基百科文章的顶部,它指出:

如果 d(p,q) <= R,则 h(p) = h(q) 的概率至少为 P1

如果 d(p,q) >= cR,则 h(p) = h(q) 概率最大为 P2

此处提到的 R 值是否也是“稳定分布”部分中提到的 R 值。(http://en.wikipedia.org/wiki/Locality-sensitive_hashing#Stable_distributions

C:与我之前的问题(B)有关。我发现在我的 hasing 函数中使用更高的 R 值将我的向量映射到更小的散列值范围内。有没有办法优化我的 R 值。

D:一张桌子大约可以使用多少张?

4

2 回答 2

2

给有兴趣的人。我找到了这个文档(http://web.mit.edu/andoni/www/papers/cSquared.pdf),它对如何将 LSH 用于高维空间进行了非常详细但复杂的解释。

于 2010-07-17T19:08:06.467 回答
2

您可能想查看“MetaOptimize”——例如用于机器学习的 Stack Overflow。
http://metaoptimize.com/qa

您的问题并不是真正的 python 或编程问题,该社区可能会提供更多帮助。

于 2010-07-21T18:07:27.320 回答