我已经成功设置了一个有 6 个节点的 Hadoop 集群(master、salve<1-5>)
- 格式化namenode -> 完成
- 启动和关闭集群 -> 工作正常
- 执行“hadoop dfs -ls /”会出现此错误 ->错误:INFO ipc.Client: Retrying connect to server: localhost
我试图查看正在运行的服务:
sudo netstat -plten | grep java
hduser@ubuntu:~$ sudo netstat -plten | grep java
tcp 0 0 0.0.0.0:50070 0.0.0.0:* LISTEN 1000 93307 11384/java
tcp 0 0 0.0.0.0:44440 0.0.0.0:* LISTEN 1000 92491 11571/java
tcp 0 0 0.0.0.0:406.3. * LISTEN 1000 92909 11758/java
tcp 0 0 0.0.0.0:50010 0.0.0.0:* LISTEN 1000 93449 11571/java
tcp 0 0 0.0.0.0:50075 0.0.0.0:* LISTEN 1000 93673 10t0.1.0.cp
10t0.7 0.0:50020 0.0.0.0:* 听 1000 93692 11571/java
tcp 0 0 127.0.0.1:40485 0.0.0.0:* LISTEN 1000 93666 12039/java
tcp 0 0 0.0.0.0:44582 0.0.0.0:* LISTEN 1000 93013 11852/java
tcp 0 0 145.42.43.0.0 :4310.42.0.0.0 : * 听 1000 92471 11384/java
tcp 0 0 10.42.43.1:54311 0.0.0.0:* 听 1000 93290 11852/java
tcp 0 0 0.0.0.0:50090 0.0.0.0:* 听1000 93460 7
tcp 70011 0.0:34154 0.0.0.0:* 听 1000 92179 11384/java
tcp 0 0 0.0.0.0:50060 0.0.0.0:* LISTEN 1000 94200 12039/java
tcp 0 0 0.0.0.0:50030 0.0.0.0:* LISTEN 1000 93550 11852/java
它的主 IP 绑定到端口 54310 和 54311,而不是本地主机(环回)。
conf-site.xml 已正确配置:
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hduser/hadoop/tmp</value>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://master:54310</value>
</property>
</configuration>
为什么期望 localhost 绑定到 54310 而不是我在此处配置的 master hich。帮助表示赞赏。我该如何解决这个问题?
干杯