我能够在我的集群中设置fence_vmware_soap,并且我知道它用于防止数据损坏,以便两个节点不会同时写入共享存储(在我的情况下为lun)。在活动节点能够接管并写入共享磁盘之前,围栏将确保不健康的节点完全关闭。
我想知道会发生什么,以及集群中的一个节点如何在不健康的节点使用 fence_vmware_soap 代理杀死自己之前知道另一个节点不健康。
我将非常感谢以非常简单的方式解释它的答案,因为这是我第一次设置 nfs 集群(主动/被动)
我能够在我的集群中设置fence_vmware_soap,并且我知道它用于防止数据损坏,以便两个节点不会同时写入共享存储(在我的情况下为lun)。在活动节点能够接管并写入共享磁盘之前,围栏将确保不健康的节点完全关闭。
我想知道会发生什么,以及集群中的一个节点如何在不健康的节点使用 fence_vmware_soap 代理杀死自己之前知道另一个节点不健康。
我将非常感谢以非常简单的方式解释它的答案,因为这是我第一次设置 nfs 集群(主动/被动)
我知道这个线程有点旧,但是:
首先尝试访问您的 vmware 集群是否可用:
# fence_vmware_soap -a my_host_ip -l my_user -p my_pw --ssl -z -v -o list
我不知道如何使用起搏器,但没有的解决方案是更改 cluster.conf 中的以下内容:
<clusternode name="n1" nodeid="2" votes="1">
<fence>
<method name="1">
<device name="vmwarefence" port="rhel5rhcs-node1"
uuid="xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxx"/>
</method>
</fence>
</clusternode>
</clusternodes>
<cman expected_votes="1" two_node="1"/>
<fencedevices>
<fencedevice agent="fence_vmware_soap" ipaddr="xxx.xxx.xxx.xxx"
login="root" name="vmwarefence" passwd="pwd" ssl="1"/>
</fencedevices>
之后您可以通过以下方式检查集群状态
# clustat