问题标签 [pacemaker]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
failover - Pacemaker:如何将 VirtualIP 资源保留在至少一个节点上
我使用起搏器和 corosync 来管理两个节点处于主动/被动模式的故障转移。我已经这样配置了一个虚拟 IP 资源:
其中@IP 是要ping 的IP 地址。
一切正常,VIP 根据 ping 在节点上移动。但是,当两个节点都无法 ping @IP 时,我的资源 VirtualIP 被禁用。在这种情况下,我希望在启用它的最后一个节点上保持启用 VirtualIP 资源。
我认为我必须根据ping结果修改我的资源VirtualIP的分数,但我没有找到如何去做。
谢谢你的帮助
cluster-computing - corosync 启动后立即关闭
我正在两个节点上运行一个带有 corosync 的起搏器集群。我不得不重新启动node2,然后重新启动并执行
corosync 已启动,但会立即自行关闭。
在日志条目“完成服务同步,准备提供服务”之后。有一个条目“节点被信号关闭”并且关闭开始。
这是完整的日志输出:
cluster-computing - 在 C++ 程序中使用 Corosync + Pacemaker
我在这个网站上阅读了“从头开始的集群”文档:http : //clusterlabs.org/doc/ 我没有找到我的问题的答案:
1) 我想知道带有 Pacemaker + Corosync 的 Linux 集群是否可以与 C++ 程序一起使用。所有示例均针对 Apache 服务器,并且主要针对 Web 服务。有可能吗?
2) 是否有任何文档/网站解释了集群状态图(在线、活动、...)和潜在的 C++ 应用程序图(应用程序运行、停止、...)之间的可能联系。
debian - 在引导时启动 Corosync 2.X + Pacemaker 1.1 集群 (Debian Wheezy)
我有一个似乎很容易解决的问题,但我不知道解决它的正确方法。
我已经在谷歌上搜索了将近一周的解决方案,但没有运气。(我发现的只是这个,但没有清晰干净的解决方案)
我创建了一个两节点集群 NOT FOR PRODUCTION,在两个节点上都具有以下配置:
- Debian Wheezy 7.7
- Corosync v2.3.4
- 起搏器 v1.1.12
- Libqb v0.17.1
- 簇胶 v1.0.12
- 资源代理 v3.9.6
- crmsh v2.1.0
我已经按照本指南从源代码安装了集群软件,以在 Debian 上编译集群软件
在安装之前,我确保没有旧的 corosync 或起搏器依赖项。
安装后,我配置了我的集群,编辑文件(在两个节点上)corosync.conf 并创建和复制 authkey
我已经在起搏器上配置了资源
在完成所有配置之后,我已经开始使用 corosync 和起搏器
集群已启动并正在运行,但我找不到在引导时启动集群的方法
我尝试将 init.d 脚本添加到运行级别,但我没有得到任何响应并且对 corosync 没有影响
起搏器上的这个错误
我遵循了关于 clusterlabs 的指南,但我找不到 Debian 和 crmsh 的解决方案(在官方指南中,他们使用 pcs 而不是 crmsh,但即使这样我也找不到使集群在启动时运行的正确程序时间)
我可以添加的另一个信息是,我还尝试使用 crmsh 启动和运行集群,试图找到一种让它在启动时运行的方法。如果我运行 crm 集群启动(而不是 init.d 脚本)corosync 和起搏器启动并且集群开始运行,但是如果我运行命令停止我得到这个错误
使集群在启动时运行的正确方法是什么?必须启动和启用什么守护程序?
起搏器应该由corosync启动吗?我找到了本指南,但提到的参数 service-name 和 service-ver 在我的 corosync 配置中不起作用。
希望有人可以帮助我解决这个问题
提前致谢
linux - Clusterlabs起搏器不会安装在centos5上
我正在尝试在我的 centos 5.11 测试服务器上安装起搏器。我正在为 postgres 设置一个 2 节点集群。由于包资源代理的依赖性,Pacemaker 安装失败。我在 clusterlabs 的任何 centos 存储库中都找不到 rpm。我找到了源 rpm 并成功编译和安装。Pacemaker 仍然无法找到资源代理。
我不确定应该在哪里安装资源代理。我将源代码复制到临时目录并在那里提取和编译。是否可能资源代理没有安装在正确的位置?
cluster-computing - 起搏器因超时而终止主监视器脚本(LSB)时的孤立进程
在我们的起搏器 + corosync 集群中
Last updated: Thu Oct 22 21:16:33 2015
Last change: Thu Oct 22 17:25:13 2015 via cibadmin on aws015
Stack: corosync
Current DC: aws015 (2887647247) - partition with quorum
Version: 1.1.10-42f2063
4 Nodes configured
16 Resources configured
我们有跟随情况。我们编写 python LSB 脚本,检查某些应用程序的状态,并将其作为资源:
primitive pm2_app_gardenscapesDynamo_lsb lsb:pm2_app_gardenscapesDynamo \
op start interval="0" timeout="60s" \
op stop interval="0" timeout="60s" \
op monitor interval="30s" timeout="60s" on-fail="restart" \
meta failure-timeout="10s" migration-threshold="1"
此检查由可以挂起的实用程序进行(LSB 脚本启动该实用程序,并等待它的回复)。因此,当起搏器超时时,它会杀死我们的 python 脚本,但挂起的实用程序仍然存在于内存中,并且不会死掉。
有可能防止这种情况吗?
centos7 - 如何为 OpenShift Origin V3 配置起搏器
我想用 OpenShift Origin V3 伪造一个企业环境来测试一些东西。我将尝试使用多个 master、etcds 和多个节点进行高级安装。 https://docs.openshift.org/latest/install_config/install/advanced_install.html
我已经进行了一次快速安装(在容器中运行 OpenShift),并进行了几次高级安装(一个包含主节点 + 节点和一些节点的主机)。
首先,我将整个环境安装在以 CentOS7 作为操作系统的 AWS EC2 实例上。我有 2 个主节点(master1.example.com 和 master2.example.com)和 3 个节点(node1.example.com、node2.example.com、...)我想分开我的主节点和节点。所以容器和图像只会在节点上。(因此没有包含主节点和节点的主机)。
我的主人需要是HA。所以他们将使用虚拟 IP 和起搏器。但是我该如何配置呢?有一些教程可以将起搏器与 apache 一起使用。但是没有描述在 OpenShif 中使用起搏器和 vip 的配置。
amazon-ec2 - 在 Amazon EC2 实例上安装 corosync 和起搏器
我正在尝试为 2 个亚马逊实例设置 HA 集群。我的实例的操作系统是 CentOS7。
我正在关注本教程:http: //jensd.be/156/linux/building-a-high-available-failover-cluster-with-pacemaker-corosync-pcs
当我的主人 2 显示以下内容时
但他们都应该在线。我究竟做错了什么?
我必须选择哪个 IP 作为虚拟 IP?因为IP不在同一个子网中。
docker - 码头工人-生产中-HA
如何使用主动/主动或主动/备用 HA 系统在生产中运行 docker?是否有任何指南或最佳做法?
我在考虑 3 个场景:
1)NFS - 对于两台服务器 - 准备好docker-machine
并安装共享 NFS 到/var/lib/docker/
- 所以两个 docker 节点应该看到相同的文件。(使用某种文件管理器,如 vnx、efs 等。)
2)使用 DRBD 复制磁盘 - 并将其挂载到:/var/lib/docker/
- 因此数据在两个节点上,并且活动节点可以挂载它并运行容器,以防故障转移,其他节点挂载并启动容器
3)使用 DRBD - 如上所述 - 并导出 NFS 服务器,将两个节点上的 NFS 挂载到:/var/lib/docker/
- 如上所述,两个节点都可以挂载和运行容器,使用 Heartbeat/Pacemaker 进行虚拟 IP 和 DRBD 切换
在生产中运行 docker-containers 以使其高可用性的最佳实践是什么。
问候
pacemaker - 需要在集群中同步 corosync.conf 的方法
我面临 conrosync.conf 文件的问题。我有两个节点:node1 和 node2。node1 中的 corosync.conf 与 node2 中的 corosync.conf 不同。我需要通过 bash 脚本在两个节点之间同步 corosync.conf 的方法。示例:如果我站在节点 2 并调用此脚本,它将更改节点 1 中的 corosync.conf,就像节点 2 中的 corosync.conf 一样。不允许使用某些命令,例如:ssh、rsync...