我在 Ubuntu 上使用 VMware 在3 个虚拟机上安装了 hadoop 3.1.1 。当我运行hdfs namenode -format和 start-all.sh 然后jps在我的主节点和两个从节点上正常工作。
但是,使用命令hdfs dfsadmin -report,我只能看到一个实时数据节点(当我检查 master:50070 或 8088 时得到相同的结果)。
我尝试按如下方式禁用防火墙:ufw disable但它没有解决问题。3 台机器可以通过ping和ssh相互连接(无需密码)。我还删除了带有 datanode 和 namenode 文件夹的 hadoop tmp 文件夹,但效果不佳。日志文件中也没有显示任何问题。
您是否有任何解决方案来获得三个实时数据节点而不是一个?谢谢。
这些是我的配置文件:
纱线站点.xml
<configuration>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>master</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>master:8025</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>master:8035</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>master:8050</value>
</property>
</configuration>
hdfs-site.xml
<configuration>
<property>
<name>dfs.datanode.data.dir</name>
<value>/usr/local/hadoop_tmp/hdfs/datanode</value>
<final>true</final>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/usr/local/hadoop_tmp/hdfs/namenode</value>
<final>true</final>
</property>
<property>
<name>dfs.namenode.http-address</name>
<value>master:50070</value>
</property>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
</configuration>
核心站点.xml
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://master:9000/</value>
</property>
<property>
<name>fs.default.FS</name>
<value>hdfs://master:9000/</value>
</property>
</configuration>
工作人员
master
slave1
slave2