问题标签 [keepalived]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
cluster-computing - Haproxy 主动/被动服务器检查
我是 haproxy 的新手,目前在集群配置方面遇到问题。
使用pacemaker或keepalived分配vip地址在主节点上工作正常,问题出在备份节点上,haproxy服务无法启动,因为我无法在配置文件上绑定vip地址,因为它已附加到主机.
我应该使用什么来跟踪 VIP 并重新启动 BACKUP 节点?或任何其他有效的解决方案。
edit1:找出阅读文档的“透明”设置。
现在我想知道如何使用keepalived的内部vip接口将请求发送到真实服务器(使用NAT模式)。
andddddd 已经在 keepalived 上使用 virtual_route 参数做到了
关!!!
load-balancing - MaxScale 集群(主-主)设置
当在模式中的 Galera Cluster 前以 Master-Slave 类型部署多个 MaxScale(使用 Keepalived 或类似方法从 master 故障转移到 slave)时read-write-split
,一切正常。但是,以循环方式进行类似大师-大师的类型学呢,这可能吗?
例如:在 10.0.0.1 有一个 MaxScale,在 10.0.0.2 有一个第二个,Haproxy 在它前面,有一个roundrobin
或leastconn
分布算法(或者甚至没有 Haproxy/负载均衡器,应用程序只是随机连接到一个或另一个)就是这样MaxScale 可能/很好地支持?
kubernetes - K3S HA 安装问题 - 向集群添加浮动 ip
我正在尝试使用 HAProxy 和 Keepalived 创建一个 HA k3s 集群。对于新安装(第一次安装时添加了 --tls-san 参数),一切正常。
我在拥有现有集群时遇到问题,我尝试更新配置并添加 --tls-san <floating_IP>。
我可以看到服务的单元文件已正确更新,并且服务确实重新启动,但是编辑 kubeconfig 文件以连接到新的浮动 IP 会导致 tls 错误。
有任何想法吗?
谢谢三文鱼
编辑:似乎没有创建新的侦听器(即在 k3s-serving 秘密中)
docker - Docker Keepalived:检查 HAProxy(在另一个容器中)是否健康
我有两个 Docker 容器:
1 为 Keepalived 1 为 Haproxy
问题是我的track_script killall -0 haproxy
(检查haproxy是否还活着)无法到达haproxy的进程(因为它在另一个容器中..)
我应该怎么办 ?
谢谢!
kubernetes - 在 kubernates 上为服务 (NodePort) 配置 keepalived
我有一个包含 2 个节点的 k8s 集群。在集群中,我为同一个应用程序部署了 2 个 pod。由于某种原因,我必须为每个 pod 部署一个服务(NodePort IP),所以我总共有 2 个服务应用程序,例如服务 NodePort IP 是 192.142.1.11 和 192.142.1.12。并使用这 2 个 ips 我可以从任何节点访问应用程序。
现在我将使用 keepalived 为应用程序设置 HA。所以:
- 安装 keepalived 服务的最佳实践是什么?在每个 k8s 节点上还是将其部署为 pod?
- 如何
interface
在keepalived.conf文件中配置?你知道 NodePort ips 是在k8s 创建的kube-ipvs0接口上配置的,它的状态是 down。好像不能用作keepalived.conf中的接口。如果我在每个节点上启动keepalived服务,我应该使用Node外部接口吗?
谢谢你的帮助。
centos7 - Keepalived 通知未运行脚本
我正在使用默认 yum v1.3.5 (03/19,2017) 的 keepalived,在 centos 7 (2009) 上使用 git commit v1.3.5-6-g6fa32f2
vip 工作正常,但是当我添加通知脚本时,它正在打开文件但没有运行它(我猜)。这是我备份的配置文件。我使用 root 是因为我在某处读到 keepalived 需要类似于 root 的权限(我可能错了)
这是我的通知脚本(主备有相同的东西)。我已经尝试使用 /bin/bash notify.sh 运行它并且它可以工作。脚本的权限是755
当我启动/停止主服务时,备份服务器获取 vip 但文件夹日志中没有任何内容
这是来自 journalctl -u keepalived 的日志 | 尾 -n 100
ubuntu - Keepalived - (VI_1) 进入 FAULT 状态(接口没有 IPv4 地址) - 即使接口有 IP
即使我为接口配置了 IP 地址,我仍不断收到错误消息 (VI_1) 进入 FAULT 状态(接口没有 IPv4 地址)。我配置错了什么?
这是我的接口配置:
这是我的keepalived状态:
“错误”是:(VI_1)进入 FAULT 状态(接口没有 IPv4 地址)
最后但并非最不重要的是,这是我的 keepalived 配置:
掌握:
奴隶:
hadoop - keepalived 通知脚本无法运行 hadoop 命令
我为keepalived 1.3.5(主备)设置了2台服务器
我计划在服务器更改状态时打印日志,这就是我使用 notify_master 和 notify_backup 并调用我的脚本的原因,假设 notify_m.sh 和 notify_b.sh
两个.sh里面都是这样的
问题是:它只打印到本地日志,但不能打印到 hdfs 中的日志
我已经尝试更改hdfs中的权限,以便root可以写入(我假设keepalive将以root身份写入,因为在本地,日志所有者是root)并且当我运行sh notify_m.sh
它时工作得很好
以前有人遇到过这种问题吗?
先感谢您
linux - Keepalived:当主服务器上的检查脚本发现应用程序的服务已关闭时,不会转换到备份节点
我正在尝试以这样一种方式配置keepalived,即如果在主节点上运行的任何应用程序或服务发生故障,keepalived 应将其视为故障,备份节点应充当主节点并从主节点接管浮动IP。
我编写了一个脚本来检查主服务器上的服务 X 是否关闭,然后它应该转换到备份节点。
我的keepalived conf是:
检查服务状态的脚本:
我使用手动停止了“myservice”
正如预期的那样,脚本的输出是“5”。但是通过上述配置,主节点仍然是主节点,它不会将所有权转移到备份节点。是否有任何我错过的特定配置然后请帮我找到它?