3

我们的集群运行 2 个核心节点,dfs 容量很小,需要增加。

我向核心节点实例添加了一个 500GB 的新卷并将其挂载到 /mnt1 并更新了主节点和核心节点中的 hdfs-site.xml。

  <property>
    <name>dfs.datanode.dir</name>
    <value>/mnt/hdfs,/mnt/hdfs1</value>
  </property>

然后我重新启动了 hadoop-hdfs-namenode 和 hadoop-hdfs-datanode 服务。但是由于新卷,数据节点正在关闭。

2018-06-19 11:25:05,484 致命的 org.apache.hadoop.hdfs.server.datanode.DataNode (DataNode: [[[DISK]file:/mnt/hdfs/, [DISK]file:/mnt/hdfs1] ]心跳到ip-10-60-12-232.ap-south-1.compute.internal/10.60.12.232:8020):块池(Datanode Uuid未分配)服务到ip-10-60-12-的初始化失败232.ap-south-1.compute.internal/10.60.12.232:8020。
退出。org.apache.hadoop.util.DiskChecker$DiskErrorException:失败的卷太多 - 当前有效的卷:1,配置的卷:2,卷失败:1,容错的卷:0

在搜索时,我看到人们建议格式化 namenode,以便将块池 ID 分配给两个卷。我该如何解决这个问题?

4

0 回答 0