1

我试图深入了解从公开暴露的负载均衡器的第 2 层 VIP 转发到服务的集群 IP 的工作原理。我已经阅读了MetalLB如何做到这一点的高级概述,并且我尝试通过设置 keepalived/ucarp VIP 和 iptables 规则来手动复制它。但是我必须遗漏一些东西,因为它不起作用;-]

我采取的步骤:

  1. 创建了一个集群,kubeadm其中包含一个主节点 + 3 个节点,在单台计算机上的 libvirt/KVM 虚拟机上运行 k8s-1.17.2 + calico-3.12。所有虚拟机都在192.168.122.0/24虚拟网络中。

  2. 创建了一个简单的 2 pod 部署并将其公开为设置为的NodePort服务: 我已经验证我可以从主机上的每个节点的 IP 的 32292 端口访问它。externalTrafficPolicycluster
    $ kubectl get svc dump-request NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE dump-request NodePort 10.100.234.120 <none> 80:32292/TCP 65s

  3. ucarp在所有 3 个节点上创建了一个 VIP :(
    ucarp -i ens3 -s 192.168.122.21 -k 21 -a 192.168.122.71 -v 71 -x 71 -p dump -z -n -u /usr/local/sbin/vip-up.sh -d /usr/local/sbin/vip-down.sh来自 knode1 的示例)
    我已经验证我可以 ping 192.168.122.71VIP。我什至可以通过它连接到当前持有 VIP 的虚拟机。
    现在,如果 kube-proxy 处于iptables模式,我还可以通过 VIP 访问其节点端口上的服务http://192.168.122.71:32292。然而,令我惊讶的是,在ipvs模式下,这总是导致连接超时。

  4. 在每个节点上添加了一个 iptables 规则,用于将传入的数据包192.168.122.71转发到服务的 cluster-IP 10.100.234.120:(
    iptables -t nat -A PREROUTING -d 192.168.122.71 -j DNAT --to-destination 10.100.234.120
    后来我也尝试将规则缩小到相关端口,但它并没有以任何方式改变结果:
    iptables -t nat -A PREROUTING -d 192.168.122.71 -p tcp --dport 80 -j DNAT --to-destination 10.100.234.120:80)

结果:

iptables模式下,所有请求都会http://192.168.122.71:80/导致连接超时。

ipvs模式下它部分工作:
如果192.168.122.71VIP 被一个有 pod 的节点持有,那么大约 50% 的请求是成功的,并且它们总是由本地 pod 提供服务。该应用程序还获得了主机的真实远程 IP ( 192.168.122.1)。其他 50%(大概被发送到另一个节点上的 pod)正在超时。
如果 VIP 被没有 pod 的节点持有,那么所有请求都超时。

我还检查了它是否无论如何都会影响结果,以始终将规则保留在所有节点上,而不是将规则仅保留在持有 VIP 的节点上并在 VIP 发布时将其删除:两者的结果都相同案例。

有谁知道为什么它不起作用以及如何解决它?我会很感激这方面的帮助:)

4

1 回答 1

1

还需要添加MASQUERADE规则,以便相应地更改源。例如:
iptables -t nat -A POSTROUTING -j MASQUERADE

ipvs

于 2020-02-07T10:14:30.623 回答