我在Google Compute Instance中安装了一个elasticsearch服务器。每分钟都会摄取大量数据,并且下划线磁盘很快就会填满。
我知道我们可以增加磁盘的大小,但这对于存储长期数据会花费很多。
我们需要将 Elasticsearch 服务器(计算引擎磁盘)中 90 天的数据和超过 90 天(直到 7 年)的数据存储在 Google Cloud Storage Buckets 中。较早的数据应该可以检索,以备日后分析时使用。
我知道的一种方法是经常拍摄快照并使用Curator从 Elasticsearch 服务器中删除超过 90 天的索引。这样我可以保持磁盘空闲并最大限度地降低存储成本。
有没有其他方法可以在不手动自动化上述想法的情况下做到这一点?
例如,由 Elasticsearch 提供的开箱即用的东西,它会将超过 90 天的数据存档并将数据文件保存在磁盘中,然后我们可以手动将这个文件从磁盘移动到Google Cloud Storage中。