1

我有两个文件:

{
    id: 7,
    title: 'Wet',
    description: 'asdfasdfasdf'
}

{
    id: 6
    title: 'Wet wet',
    description: 'asdfasdfasdf'
}

除了第二个文档中的多余单词外,它们几乎相同。

我的查询是这样的:

var qobject = {
        query:{
            custom_score:{
                query:{
                   multi_match:{
                     query: q, //I searched for "wet"
                     fields: ['title','description'],
                   }
                },
                script: '_score '
            }
        }
    }

好的,所以当我运行这个查询时,我得到了这些结果:

{ total: 2,
  max_score: 1.8472979,
  hits: 
   [ { _index: 'products',
       _type: 'products',
       _id: '7',
       _score: 1.9808292,
       _source: [Object] },
     { _index: 'products',
       _type: 'products',
       _id: '6',
       _score:  1.7508222,
       _source: [Object] } ] }

为什么 id 7 的排名高于 id 6?得分背后的原因是什么?6不应该因为它有2个词而排名更高吗?

如果我想要更多的单词 = 更多的权重怎么办?我该怎么做才能修改我的查询?

解释如下:

"_explanation": {
            "value": 1.9808292,
            "description": "custom score, product of:",
            "details": [
                {
                    "value": 1.9808292,
                    "description": "script score function: composed of:",
                    "details": [
                        {
                            "value": 1.9808292,
                            "description": "fieldWeight(title:wet in 0), product of:",
                            "details": [
                                {
                                    "value": 1,
                                    "description": "tf(termFreq(title:wet)=1)"
                                },
                                {
                                    "value": 1.9808292,
                                    "description": "idf(docFreq=2, maxDocs=8)"
                                },
                                {
                                    "value": 1,
                                    "description": "fieldNorm(field=title, doc=0)"
                                }
                            ]
                        }
                    ]
                },
                {
                    "value": 1,
                    "description": "queryBoost"
                }
            ]
        }

"_explanation": {
            "value": 1.7508222,
            "description": "custom score, product of:",
            "details": [
                {
                    "value": 1.7508222,
                    "description": "script score function: composed of:",
                    "details": [
                        {
                            "value": 1.7508222,
                            "description": "fieldWeight(title:wet in 0), product of:",
                            "details": [
                                {
                                    "value": 1.4142135,
                                    "description": "tf(termFreq(title:wet)=2)"
                                },
                                {
                                    "value": 1.9808292,
                                    "description": "idf(docFreq=2, maxDocs=8)"
                                },
                                {
                                    "value": 0.625,
                                    "description": "fieldNorm(field=title, doc=0)"
                                }
                            ]
                        }
                    ]
                },
                {
                    "value": 1,
                    "description": "queryBoost"
                }
            ]
        }
4

1 回答 1

7

查看查询的解释输出以了解原因。您可以使用说明 api或添加"explain": true到您当前的搜索请求中。

默认情况下,lucene 使用 tf/idf(词频,倒置文档频率)相似度对文档进行评分。对于与查询匹配的每个术语,都会考虑不同的因素。以下是最重要的:

  • 词频:词在文档中出现的频率。越多越好。如果一个术语出现多次,则该文档是一个更好的匹配。
  • 倒置文档频率:该术语在索引中的频率。越少越好。稀有术语胜过通用术语。
  • 规范:索引时间提升(默认为 1,无提升)+ 字段规范,它定义了较短的字段优于长字段。

根据您正在执行的查询,由于规范,文档的评分不同。您可以在映射(和重新索引)中禁用规范,但这样您也会失去索引时间提升(我认为您无论如何都不会使用它)。实际上,在您的示例中,第二个文档的得分较低,因为字段规范较低,尽管词频较高(2 而不是 1)。

另一个解决方案是插入不同的 lucene 相似性:lucene 4 提供了更多的相似性,并且还允许定义每个字段的相似性。这些功能已在 elasticsearch 0.90 中公开。

于 2013-03-29T08:06:52.853 回答