我有一个单节点 ElasticSearch 集群,它有一个索引(我知道,我的错),我在其中插入了 2B 文档。
我不知道拆分索引是最佳实践,我的在崩溃之前增长到 400GB。
我尝试使用(https://www.elastic.co/guide/en/elasticsearch/reference/current/indices-split-index.html )拆分我的索引,无论我做什么,我都会不断收到java.lang.OutOfMemoryError 。我已经用尽了我的物理内存,线程刚刚卡在 _split 中。
我有一些文件在成功建立索引后通过 logstash 删除,因此重新插入数据不是一种选择。
有什么建议么?