我有一个 3 节点 Cassandra 集群,复制因子为 3。这意味着所有数据都应该复制到所有 3 个节点上。
以下是nodetool状态的输出:
-- Address Load Tokens Owns (effective) Host ID Rack
UN 192.168.0.1 27.66 GB 256 100.0% 2e89198f-bc7d-4efd-bf62-9759fd1d4acc RAC1
UN 192.168.0.2 28.77 GB 256 100.0% db5fd62d-3381-42fa-84b5-7cb12f3f946b RAC1
UN 192.168.0.3 27.08 GB 256 100.0% 1ffb4798-44d4-458b-a4a8-a8898e0152a2 RAC1
这是所有 3 个节点上磁盘使用情况随时间变化的图表:
我的问题是为什么这些尺寸变化如此之大?是不是压缩没有同时运行?