问题标签 [internal-load-balancer]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
azure - 创建机器后将负载均衡器附加到多个虚拟机(在这种情况下无法使用可用性集)
我创建了两个虚拟机。我没有为他们创建可用性集,因为我不知道我会需要它。我不想重新创建这些虚拟机,因为我需要一个月的时间来配置和安装它们上的所有东西。
现在我创建了 LB,但我可以看到我只能将它与一个 VM 或包含多个 VM 的可用性集相关联(正如我所说的那样,这是不可能的,因为它只能在创建 VM 期间进行配置)。
我尝试将 LB 与 VM 关联,但我可以看到我只能选择一个 VM。
我不敢相信我不能为 LB 选择至少两个虚拟机???这真的以这种方式工作吗?这对我来说真的很令人惊讶,也很令人失望。
如果有一些关于如何将负载均衡器与相同资源组和虚拟网络关联到多个 VM 的快速工作,请建议我。
请!真的没有任何解决方法吗?我检查了这个,没有提到如何关联多个虚拟机。 具有单个 VM 的 Azure 负载均衡器
kubernetes - 在 Rancher 2.0 Kubernetes 中,如果没有 Loadbalancer 入口,ClusterIP 模式服务不会以循环方式提供服务
我有的:
我使用单节点Rancher 2.0 部署创建了一个Kubernetes集群。它有 3 个 etcd、控制节点和 2 个连接到集群的工作节点。
我做了什么:
我为这个集群部署了一个 API 网关和一个快速mydemoapi
服务(无数据库),在端口 5000 上的 2 个节点上有 5 个 Pod,我不想公开。因此,我只是将该服务端点与 API 网关中的服务名称进行了映射,并且http:\\mydemoapi:5000
它可以通过网关公共端点访问。
问题陈述:
mydemoapi
服务以随机方式提供,而不是以循环方式提供,因为根据Rancher文档的默认设置kube-proxy
是随机的 Kubernetes 中的负载平衡
部分成功:
Keep the existing hostname option
我使用此 URL 在 Rancher 规则中创建了一个入口负载均衡器,并将mydemoapi.<namespace>.153.xx.xx.102.xip.io
此服务附加到入口,它以循环方式提供,但有一个问题。该服务xip.io
与我的工作节点的公共 IP 一起使用并公开公开。
需要帮助:
我想将我的内部 clusterIP 服务映射到具有内部访问权限的网关,以便它可以以循环方式在内部提供给网关,从而提供给网关公共端点。我不想在没有网关的情况下公开我的服务。
lua - 是否可以使用 HAProxy - Lua 管理用于速率限制的粘性表?
我使用 HAProxy 作为负载平衡器,并且我有一个 lua 脚本,它将后端名称返回给 haproxy.cfg。想为我的应用程序实施速率限制。
我知道我们可以在 haproxy.cfg 中使用粘滞表(如下所示)来实现速率限制。
stick-table type ip size 1m expire 60s store http_req_cnt
acl 超过_limit hdr_ip(x-forwarded-for,-1),table_http_req_cnt(incoming) ge 10
http-request tarpit 如果超过_limit
http-request track-sc0 hdr_ip(x-forwarded-for,-1)
想用lua实现同样的功能。是否可以使用 lua 访问该粘性表。
提前致谢。
azure - 在具有“标准”SKU 的 azure 内部负载均衡器中看不到后端池中设置的可用性
希望有人可以在这里提供帮助,是否有任何特定的选项我需要注意,这将使 azure 标准负载均衡器在后端池配置中获取(显示)可用性集?
基本上,我已经创建了一个 AS 并且它有一个 vm(目前),然后我使用标准 SKU 创建了天蓝色的“内部”负载均衡器,但是当我尝试创建一个 bep 时,它只提供了一个虚拟网络选项关于关联的列表。
我尝试在与可用性集 RG 相同的 RG 内创建负载均衡器,因为在此站点上,我读到有人提到这是一种可能的解决方案。
当我使用基本SKU创建 ILB 时,我可以毫无问题地选择相同的 AS。所以我想知道需要什么才能使它适用于标准SKU?
非常感谢任何帮助。
azure-virtual-network - 当 VM 存在于负载平衡器 VNET 之外时,无法将 VM 添加到内部负载平衡器池
使用 Microsoft 内部负载平衡器 (ILB) 时,我想为驻留在与 ILB 所在的 VNET 不同的 VNET 中的 VM 创建一个池。UI 似乎支持这一点,因为我可以在创建池时选择环境中的任何 VNET。然而,当我创建这个池时,我收到以下错误,暗示这是不允许的。
网络接口和内部负载平衡器必须使用相同的网络
{"code":"BadRequest","message":"{\r\n \"error\": {\r\n \"code\": \"NetworkInterfaceAndInternalLoadBalancerMustUseSameVnet\",\r\n \"message\ ": \"网络接口 /subscriptions/2f46d973-XXXX-XXXX-80a7-7222a103acb4/resourceGroups/ihde_operations/providers/Microsoft.Network/networkInterfaces/op-vm-ftp1463 使用内部负载平衡器 /subscriptions/2f46d973-cea1-XXXX-XXXX -7222a103acb4/resourceGroups/ihde_dev/providers/Microsoft.Network/loadBalancers/dev-lb-CSL-Internal 但不使用相同的 VNET (/subscriptions/2f46d973-cea1-4856-80a7-7222a103acb4/resourceGroups/IHDE_DEV/providers/Microsoft .Network/virtualNetworks/VNET_BACKEND) 作为负载均衡器。\",\r\n \"details\": []\r\n }\r\n}"}]}
附带说明一下,负载均衡器的公共版本确实支持这种情况,没有任何问题。
kubernetes - Ingress 和 Kubernetes 服务负载均衡器有什么关系?
这是我在 k8s.yml 文件中定义的:
运行此命令:
给我这样的“LoadBalancer Ingress”:
类型:LoadBalancer IP:
25.0.162.225 LoadBalancer 入口:internal-a9716e......us-west-2.elb.amazonaws.com
据我了解,我使用的发布类型是“LoadBalancer”,它可以帮助我将我的服务公开给外部 IP 地址(请参阅https://kubernetes.io/docs/concepts/services-networking/connect-applications-service/) . Ingress 是一个不同的东西,它位于服务的前面,我没有在我的 yml 文件中定义它。(参考:https ://medium.com/google-cloud/kubernetes-nodeport-vs-loadbalancer-vs-ingress-when-should-i-use-what-922f010849e0 )使用“LoadBalancer Ingress”我能够从集群外部访问我的服务,但我不明白为什么它被称为“LoadBalancer Ingress”?它与 Ingress 有什么关系?或者每个负载均衡器都配备了一个用于服务公开目的的入口是真的吗?
kubernetes - 待处理的消息暴露 externalApi
名称:ingress-nginx 类型:LoadBalancer 内部IP:10.108.240.88 外部IP:待定
端口:80:30191/TCP,443:30616/TCP 21h
yaml 文件:
我使用 docker 18.06,kubernete 1.13 提议对 exp ip 范围为 172.18.3.9-20 的私有组织进行测试
Flannel 日志:kubectl logs --namespace kube-system kube-flannel-ds-amd64-ms94w -c kube-flannel
结果:
无法列出 *v1.Node:获取https://10.96.0.1:443/api/v1/nodes?resourceVersion=0:拨打 tcp 10.96.0.1:443:getsockopt:连接被拒绝 E1211 11:48:43.238318 1 个反射器。 go:201] github.com/coreos/flannel/subnet/kube/kube.go:295: 无法列出 *v1.Node: 获取https://10.96.0.1:443/api/v1/nodes?resourceVersion=0 : net/http: TLS 握手超时
使用 kubeadm 初始化:
kubeadm init --pod-network-cidr 10.255.0.0/16 --service-cidr 10.244.0.0/16 --service-dns-domain "k8s" --apiserver-advertise-address 172.18.3.9
仪表板 kubernete 显示所有内容(pods、ingress、replicateSets、私有 docker registery 容器)好吧,除了这个服务!
apache - 使用 apache2 的负载均衡器在 WSDL 中不起作用
我正在尝试对 WSDL 的请求进行负载平衡:
然后我已经配置了我的 apache 和 Nginx 来做到这一点,并且不适用于任何。
我有我的 apache 配置:
我已经改变了我的 wsdl 可以正常工作
至:
我得到:
并使用tomcat,(将https://localhost:5443更改为http://localhost8080)
我的错误是什么,或者我该如何进行负载平衡?
在这个测试中,我有相同的 IP localhost:5443,但想法是 IP 改变了。
使用 Nginx 我有:
将 nginx 配置为负载均衡器
在文件中定义以下内容:
并且使用我的 nginx 负载平衡 Apache 有效,但使用我的 wsdl 不起作用。
我的问题是什么?
我需要 apache 或 Nginx,一个不再工作。
kubernetes - 在 GKE 上运行的 pod 内部公开多个 udp 端口 (>5)
背景:我们有一个容器化服务,可以处理多达 20 个流,监听 20 个不同的 udp 端口。我们在 GKE 上运行它,流源位于同一内部网络但在集群外部。流需要发送到一个恒定的 IP 地址。因此,如果有 30 个流需要处理,理想情况下,我们会使用内部负载均衡器启动 2 个 pod,每个 pod 在第一个打开 20 个端口,第二个打开另外 10 个端口。
限制:GKE 的内部负载均衡器最多允许每个转发规则打开 5 个端口。这意味着启动更多容器来处理相同数量的流。例如,要处理上面的 30 个流,我们需要启动 6 个 Pod,而不是 2 个,因此也需要 6 个负载均衡器。运行额外负载均衡器的成本可能会迅速增加。此外,如果一个流需要打开额外的端口来处理,这将进一步减少可以传递到 pod 的流的数量。
问题:是否有另一种方法可以按照所述方式将 pod 暴露给源?别名 IP 可以在这里发挥作用吗?任何其他建议,即使它涉及重新设计?
amazon-web-services - 如何使用现有的 AWS 内部负载均衡器来公开多个 Kubernetes 服务
我正在使用 AWS 中使用 KOPS 部署的 Kubernetes。为了暴露一些服务,我有几个 AWS 内部负载均衡器用于 TCP 端口,如 22、389。这些 TCP 端口不能在 Nginx 等入口控制器中使用。因此,为了为每个部署公开这些 TCP 端口,我使用的是 AWS LB。AWS 对每个区域的负载均衡器数量有限制。
我正在寻找一种将一个 aws 内部负载均衡器用于多个服务的解决方案。例如:一个 AWS LB 可用于端口 22、80、389,并使用 POD 内部端口将流量发送到内部 Kubernetes POD。使用此解决方案,我可以最大限度地减少 AWS LB 的数量并公开指向单个 LB 的多个服务。任何意见表示赞赏。
谢谢萨斯