1

我正在尝试建立一个 Apache Hadoop 2.3.0 集群,我有一个主节点和三个从节点,从节点列在 $HADOOP_HOME/etc/hadoop/slaves 文件中,我可以从从节点远程登录到主节点端口 9000 上的节点,但是当我在任何从属设备上启动数据节点时,我得到以下异常。

2014-08-03 08:04:27,952 FATAL org.apache.hadoop.hdfs.server.datanode.DataNode:块池块池 BP-1086620743-xx.xy.23.162-1407064313305(Datanode Uuid null)服务初始化失败server1.mydomain.com/xx.xy.23.162:9000 org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.server.protocol.DisallowedDatanodeException):Datanode拒绝与namenode通信,因为无法解析主机名。

以下是我的 core-site.xml 的内容。

<configuration>
    <property>
        <name>fs.default.name</name>
        <value>hdfs://server1.mydomain.com:9000</value>
    </property>
</configuration>

同样在我的 hdfs-site.xml 中,我没有为 dfs.hosts 或 dfs.hosts.exclude 属性设置任何值。

谢谢。

4

1 回答 1

0

Each node needs fully qualified unique hostname.

Your error says

hostname cannot be resolved

Can you cat /etc/hosts file on your each slave an make them having distnct hostname

After that try again

于 2014-08-04T01:58:20.383 回答