0

我的应用程序(部署在 tomcat 中)发生了两场战争,一个客户端(比如 A)和一个服务器(比如 B)。它们都部署在同一个 jvm 中,并通过 Web 服务进行通信。现在,为了使应用程序具有可扩展性,我希望将其集群化并部署在多个节点中。以下是 apache 服务器中的负载均衡器配置。

<Proxy balancer://mycluster stickysession=JSESSIONID>
BalancerMember ajp://127.0.0.1:8009 min=10 max=100 route=jvm1 loadfactor=1
BalancerMember ajp://127.0.0.1:8019 min=20 max=200 route=jvm2 loadfactor=1
</Proxy>

ProxyPass /A balancer://mycluster/A
ProxyPass /B balancer://mycluster/B

在我的客户端应用程序中,提供了服务器 url,如下所示

server.url=http://localhost/B/myservice/

我的意图是任何到达节点上的网络应用程序 A 的请求都应该在同一节点上的网络应用程序 B 中处理。但是对于当前的配置,它没有给出预期的结果。在 jvm1 上的 Web 应用 A 中处理的请求转到 jvm2 上的 Web 应用 B,反之亦然。请让我知道我在这里缺少什么以及如何解决这个问题

4

1 回答 1

1

您观察到的行为似乎是合理的:您向 Apache 负载均衡器发送了一个请求,该请求被路由到其中一个节点。如果我正确理解您的方案,您希望强制将请求(由您的 Web 应用程序启动)路由到正确的节点。我可以想到两种方法来实现这一点:

  1. 我想到达网络应用程序 A 的初始请求来自拥有会话的用户。如果您在 Tomcat 中配置了粘性会话,您可能会重用用户的会话 cookie 并将其与您的 Web 服务请求一起发送。这样,负载均衡器将决定将请求路由到与为您带来 cookie 的原始请求相同的节点。然而,从您调用 Web 服务的位置访问 cookie 可能不可行。
  2. 处理您的内部请求并不是负载均衡器的工作。那么为什么要使用它呢?您可以将常规 HTTP 连接器添加到您的 Tomcat 配置中,并将它们用于 Web 服务请求。因此,您可以规避负载平衡,在这种情况下,这只会给您的通信增加不必要的延迟和开销。缺点是:您可能需要对要调用的 IP 进行硬编码。

顺便说一句:您的配置看起来好像两个节点负载均衡器都在一台机器上运行。确定吗?

于 2012-12-27T14:44:51.517 回答