7

我正在尝试timeout使用elasticsearch_dsl. 我尝试了以下方法:

from elasticsearch import Elasticsearch
from elasticsearch_dsl import Search, F

...

def do_stuff(self, ids):
    client = Elasticsearch(['localhost'], timeout=30)
    s = Search(using=client,
               index= 'my_index',
               doc_type=['my_type'])
    s = s[0:100]
    f = F('terms', my_field=list(ids))
    s.filter(f)

    response = s.execute()
    return response.hits.hits

笔记:

  • 当我将其更改为doc_type包含一百万个实体的类型时,查询运行良好。
  • 当我指向doc_type几十亿个实体时,我收到一个超时错误,显示默认超时时间为 10 秒。

elasticsearch_dsl 文档中我什至尝试设置默认连接超时:

from elasticsearch import Elasticsearch
from elasticsearch_dsl import Search, F
from elasticsearch_dsl import connections

connections.connections.create_connection(hosts=['localhost'], timeout=30)

我仍然收到 10 秒超时错误。

4

1 回答 1

11

因此,出于某种原因,添加参数 via.params()似乎可以解决问题:

s = Search(using=client,
           index= 'my_index',
           doc_type=['my_type'])
    .params(request_timeout=30)

真正有趣的部分是查询现在只需不到一秒的时间即可运行,并且索引仅在单个节点上。

于 2015-10-08T17:21:29.460 回答