1

Hadoop 是否保证来自同一文件的不同块将存储在集群中的不同机器上?显然复制的块将在不同的机器上。

4

4 回答 4

1

不。如果您查看HDFS 架构指南,您会看到(在图中)该文件part-1的复制因子为 3,并且由标记为 2、4 和 5 的三个块组成。注意块 2 和 5在一种情况下,它们在同一个 Datanode 上。

于 2011-02-04T19:39:49.437 回答
0

显然不是:http ://hadoop.apache.org/common/docs/r0.20.2/hdfs_user_guide.html#Rebalancer

于 2011-02-04T19:41:57.530 回答
0

相反我认为。除了复制之外,每个数据节点都将每个数据块作为自己的文件存储在本地文件系统中。

于 2011-02-04T19:47:34.627 回答
0

Hadoop 不保证这一点。由于这是一个巨大的安全损失,如果你在一个作业中请求一个文件,一个宕机的数据节点将导致整个作业失败。只是因为一个块不可用。无法想象您的问题的用例,也许您可​​以多说一点以了解您的真正意图。

于 2011-02-04T20:59:36.300 回答