0

已在 3 节点集群上安装了 cloudera cdh4。尝试通过从节点(Datanodes)访问 HDFS 中的数据时遇到问题。

当我尝试使用在 HDFS 中创建新文件夹时

hadoop fs -mkdir Flume(文件夹名)

命令无法从任一从属节点放置数据或在集群的 hdfs 中创建文件夹,但从主节点工作,还有水槽、蜂巢、猪所有其他进程都在从属节点(Datanodes)中运行 尝试重新启动集群名称节点格式仍然无法正常工作!!

其次当我在做

hadoop fs -ls /

结果不是来自 hdfs,而是来自我在此命令中使用的从节点的当前目录路径。除了在 HDFS 中创建目录之外,如何检查 hdfs 是否正常工作并在集群中的从节点(Datanodes)中正确安装。有人可以帮忙吗?

4

1 回答 1

0

请验证 core-site.xml 中的属性“fs.default.name”。

<property>
<name>fs.default.name</name>
<value>hdfs://namenode:9000</value>
</property>
于 2013-10-23T13:13:23.243 回答