0

问题有点不寻常,我有一个 glusterfs 集群 - 假设有 4 个节点和一些卷。如果我的一个节点重新启动,可能有两种情况:

  • 该节点使用相同的 IP 地址和前一个节点的所有文件重新启动,在这种情况下,该节点无需其他努力即可连接到 glusterfs 集群。

  • 节点使用先前的数据重新启动,但这次节点的 IP 已更改。所以其他节点的对等状态显示一个断开的节点,这是之前断开的节点。但是当前启动的节点没有运行。甚至 glusterd 也无法在此节点中运行。

我的问题是如何连接已经拥有数据的新节点作为前一个节点的替代品。

**到目前为止我尝试了什么

  • 我删除了新节点中的 /var/lib/glusterd 文件夹。重新启动glusterd。从另一个好的节点重复它。尝试用新节点替换旧节点,但没有用。
4

1 回答 1

0

这是因为在其他节点中,断开连接的节点的IP地址仍然是旧的,试试这个:

  • 正常从 Node1 探测 Node2 和 Node3(“gluster peer probe node2”、“gluster peer probe node3”)。在此之后,Node1 将由其在 Node2 和 Node3 上的 IP 引用。
  • 从 Node2 或 Node3 之一,在 Node1 上执行反向探测(“gluster peer probe node1”)。这会将 IP 更新为任何地方的主机名(内存中、磁盘上和所有节点上)。

参考: http: //lists.gluster.org/pipermail/gluster-users/2015-March/021255.html

于 2017-06-14T13:01:33.780 回答