在部署 Web 应用程序时,一种常见的做法是将实际的应用程序逻辑实现为一系列服务,并通过 HTTP 公开它们,然后在服务和用户之间放置一些前端。通常,这些前端会处理 SSL、会话数据、负载平衡、路由请求、可能的缓存等事情。
AFAIK,这通常意味着每次有新请求进入时,都必须向一个或多个后端发出一个或多个新请求:每个请求都有其 TCP 握手、HTTP 开销等。
额外的连接不会增加可测量的延迟和/或性能损失吗?如果是这样,从这些部署中获得最佳性能的常用技术是什么?
在部署 Web 应用程序时,一种常见的做法是将实际的应用程序逻辑实现为一系列服务,并通过 HTTP 公开它们,然后在服务和用户之间放置一些前端。通常,这些前端会处理 SSL、会话数据、负载平衡、路由请求、可能的缓存等事情。
AFAIK,这通常意味着每次有新请求进入时,都必须向一个或多个后端发出一个或多个新请求:每个请求都有其 TCP 握手、HTTP 开销等。
额外的连接不会增加可测量的延迟和/或性能损失吗?如果是这样,从这些部署中获得最佳性能的常用技术是什么?