2

我有两个 gRPC 服务,一个将通过普通的 gRPC 方法调用另一个(两边都没有流),我使用 istio 作为服务网格并将 sidecar 注入到两个服务的 kubernetes pod 中。

gRPC 调用在正常负载下正常工作,但在高并发负载情况下,gRPC 客户端不断抛出以下异常:

<#bef7313d> i.g.StatusRuntimeException: UNAVAILABLE: upstream connect error or disconnect/reset before headers
    at io.grpc.Status.asRuntimeException(Status.java:526)
    at i.g.s.ClientCalls$StreamObserverToCallListenerAdapter.onClose(ClientCalls.java:434)
    at i.g.PartialForwardingClientCallListener.onClose(PartialForwardingClientCallListener.java:39)
    at i.g.ForwardingClientCallListener.onClose(ForwardingClientCallListener.java:23)
    at i.g.ForwardingClientCallListener$SimpleForwardingClientCallListener.onClose(ForwardingClientCallListener.java:40)
    at i.g.i.CensusStatsModule$StatsClientInterceptor$1$1.onClose(CensusStatsModule.java:678)
    at i.g.PartialForwardingClientCallListener.onClose(PartialForwardingClientCallListener.java:39)
    at i.g.ForwardingClientCallListener.onClose(ForwardingClientCallListener.java:23)
    at i.g.ForwardingClientCallListener$SimpleForwardingClientCallListener.onClose(ForwardingClientCallListener.java:40)
    at i.g.i.CensusTracingModule$TracingClientInterceptor$1$1.onClose(CensusTracingModule.java:397)
    at i.g.i.ClientCallImpl.closeObserver(ClientCallImpl.java:459)
    at i.g.i.ClientCallImpl.access$300(ClientCallImpl.java:63)
    at i.g.i.ClientCallImpl$ClientStreamListenerImpl.close(ClientCallImpl.java:546)
    at i.g.i.ClientCallImpl$ClientStreamListenerImpl.access$600(ClientCallImpl.java:467)
    at i.g.i.ClientCallImpl$ClientStreamListenerImpl$1StreamClosed.runInContext(ClientCallImpl.java:584)
    at i.g.i.ContextRunnable.run(ContextRunnable.java:37)
    at i.g.i.SerializingExecutor.run(SerializingExecutor.java:123)
    at j.u.c.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149)
    at j.u.c.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624)
    at java.lang.Thread.run(Thread.java:748)

同时,服务器端也没有异常istio-proxy,客户端pod的容器也没有错误。但是,如果我禁用 istio sidecar injection 以便这两个服务直接相互通信,则不会出现此类错误。

有人可以告诉我为什么,以及如何解决这个问题吗?

非常感谢。

4

1 回答 1

5

终于找到原因了,circuitBeakers是 envoy sidecar 的默认设置导致的,默认选项max_pending_requestsmax_requests设置为1024,默认connecTimeout1s,所以在高并发负载的情况下,服务器端有太多的待处理请求等待服务,sidecar circuitBreaker 将参与并告诉客户端上游是服务器端UNAVAILABLE

要解决此问题,您需要DestinationRule为目标服务应用合理的trafficPolicy设置。

于 2019-01-11T02:14:09.840 回答