46

我使用 Elasticsearch-1.1.0 来索引推文。索引过程没问题。然后我升级了版本。现在我使用 Elasticsearch-1.3.2,我随机收到这条消息:

Exception happened: Error raised when there was an exception while talking to ES.
ConnectionError(HTTPConnectionPool(host='127.0.0.1', port=8001): Read timed out. (read timeout=10)) caused by: ReadTimeoutError(HTTPConnectionPool(host='127.0.0.1', port=8001): Read timed out. (read timeout=10)).

随机性快照:

Happened --33s-- Happened --27s-- Happened --22s-- Happened --10s-- Happened --39s-- Happened --25s-- Happened --36s-- Happened --38s-- Happened --19s-- Happened --09s-- Happened --33s-- Happened --16s-- Happened 

--XXs-- = after XX seconds

有人可以指出如何解决Read timed out问题吗?

非常感谢你。

4

6 回答 6

51

很难给出直接的答案,因为您看到的错误可能与您使用的客户端有关。但是,解决方案可能是以下之一:

1.在创建ES客户端时,通过传递超时参数,全局增加默认超时时间。Python 中的示例

es = Elasticsearch(timeout=30)

2.设置客户端每次请求的超时时间。取自下面的 Elasticsearch Python 文档。

# only wait for 1 second, regardless of the client's default
es.cluster.health(wait_for_status='yellow', request_timeout=1)

以上将给集群一些额外的时间来响应

于 2014-12-02T15:36:28.960 回答
43

试试这个:

es = Elasticsearch(timeout=30, max_retries=10, retry_on_timeout=True)

它可能不会完全避免ReadTimeoutError,但会将它们最小化。

于 2016-02-09T21:04:22.543 回答
5

对于它的价值,我发现这似乎与损坏的索引状态有关。

可靠地重现这个问题非常困难,但我已经看过好几次了;操作正常运行,除了某些似乎定期挂起 ES 的操作(特别是似乎刷新索引)。

删除索引 ( curl -XDELETE http://localhost:9200/foo) 并从头开始重新索引为我解决了这个问题。

如果您看到这种行为,我建议您定期清除和重新编制索引。

于 2016-09-16T04:25:56.700 回答
5

当查询大小很大时,也会发生读取超时。例如,在我的 ES 索引大小(> 3M 文档)相当大的情况下,搜索 30 个单词的查询大约需要 2 秒,而搜索 400 个单词的查询需要 18 秒。因此,对于足够大的查询,甚至timeout=30不会节省您的时间。一个简单的解决方案是将查询裁剪为可以在超时以下回答的大小。

于 2019-01-10T15:26:10.813 回答
2

增加各种超时选项可能会立即解决问题,但不能解决根本原因。

如果 ElasticSearch 服务可用并且索引正常,请尝试增加 Java 最小和最大堆大小:请参阅https://www.elastic.co/guide/en/elasticsearch/reference/current/jvm-options.html

TL;DR 编辑 /etc/elasticsearch/jvm.options-Xms1g-Xmx1g

于 2018-12-21T20:31:33.043 回答
1

您还应该检查弹性是否一切正常。一些分片可能不可用,这里是关于不可用分片的可能原因的好文档https://www.datadoghq.com/blog/elasticsearch-unassigned-shards/

于 2019-08-19T10:02:20.597 回答