Find centralized, trusted content and collaborate around the technologies you use most.
Teams
Q&A for work
Connect and share knowledge within a single location that is structured and easy to search.
我正在测试Opendedup,它似乎运行正确,但是我放入去重分区的文件的实际大小几乎与该分区所占用的有效大小相同。
在配置文件中,激活了重复数据删除(dedup-files="true"),并且在文档中指出它是默认激活的,但我只有 130ko 的重复字节。
数据是视频文件,我想我可以获得更多的存储空间。
编辑
我用一个填充零的文件进行了测试,增益更好:1Mo 为 262ko。但是如果我压缩这个文件,我会得到 10ko,所以我想知道我是否可以选择获得更好的压缩系数。
除非它们完全相同,否则视频和压缩文件不能很好地进行重复数据删除。这是因为在这些文件中,数据是非常随机的,并且对于所讨论文件的视频数据来说是唯一的。
SDFS 不支持可变大小的分块。所以在这种情况下,如果我们在挂载的 SDFS 卷上复制相同的文件,那么我们可以获得高达 100% 的重复数据删除率。但是如果在同一个文件的开头只添加一个字节,那么重复数据删除率将为 0%。