1

我们已经建立了 2 台机器的 hadoop 集群,我们正在尝试在我们的实时项目中实现集群,我们需要在多节点集群中上传数据的信息,假设如果我有 9 个数据节点,我们需要哪个从节点上传数据。我可以选择将数据上传到 2 个从节点,如果我将数据上传到 hdfs,它会复制到另一个从节点吗?正如我们观察到的,当前使用 /tmp 位置的 hdfs 以防万一 /tmp 已满,HDFS 将使用哪个位置。

4

1 回答 1

0

添加更多集群的目的是扩大数据存储。您是否正在寻找安全的集群,授予某些用户将数据上传到 HDFS 的权限?对如果意味着你可以实现KERBEROS原理或者授权用户上传数据!

数据复制: 是的,一旦将数据上传到 HDFS,它就会将数据复制到节点中,一旦数据节点退役,它就会照顾数据从退役节点移动到另一个节点。

于 2015-07-03T05:14:46.447 回答