根据 Hadoop 3.x 发行说明,他们引入了擦除编码来克服存储问题。
擦除编码是 HDFS 中的一项新功能,与复制相比,它可以将存储开销减少大约 50%,同时保持相同的持久性保证。
有人可以向我解释一下擦除编码是如何以容错方式使用的,而且空间开销更少吗?
根据 Hadoop 3.x 发行说明,他们引入了擦除编码来克服存储问题。
擦除编码是 HDFS 中的一项新功能,与复制相比,它可以将存储开销减少大约 50%,同时保持相同的持久性保证。
有人可以向我解释一下擦除编码是如何以容错方式使用的,而且空间开销更少吗?