在 GlusterFS 3.4.3 服务器中,
当我创建一个卷时
gluster volume create NEW-VOLNAME stripe COUNT NEW-BRICK-LIST...
和存储一些文件,卷消耗的空间是实际存储数据的 1.5 倍,与条带数无关。例如,如果我在卷中创建 1GB 文件
dd if=/dev/urandom of=random1gb bs=1M count=1000
它消耗砖块的 1.5GB 总磁盘空间。“ls -alhs”、“du -hs”和“df -h”都表示相同的事实 - 1.5GB 的空间用于 1GB 文件。检查每块砖并总结使用情况也显示出相同的结果。
有趣的是,新版本 GlusterFS 3.5 服务器不会发生这种情况。即 1GB 文件使用 1GB 的总砖空间 - 正常。很好,它在 3.5 中已修复,但由于另一个问题,我现在无法使用 3.5。
我找不到任何关于此的文件或文章。我有错误的选择吗(我将所有内容都保留为默认值)?或者它是3.4中的一个错误?这似乎是一个太严重的问题,而不仅仅是一个错误。如果是设计使然,为什么呢??对我来说,这看起来像是对存储系统的巨大浪费。
公平地说,我想指出 GlusterFS 运行良好,除了这个问题。出色的性能(尤其是与 qemu-libgfapi 集成)、易于设置和灵活性。