我已经在 GCP AI 模型 TF 上部署了 MNIST 数据集,并面临扩展问题。我想知道其他人是否遇到过类似的问题以及他们将如何解决它以扩展它。
行为
- 如果我每秒创建 3 个请求,模型会在单核上正确给出预测
- 如果将请求数增加到每秒 1000 个,我会得到“代码”:403、“消息”:“请求的身份验证范围不足。”或 javax.net.ssl.SSLHandshakeException:远程主机终止握手
在另一个模型版本上,我非常确定它正在与 java 客户端一起使用,并且它也可以通过 GCP 测试和使用 UI,但由于我尝试以 1000/秒的速度进行缩放,因此它已经停止工作。这是在 n1-highmem-2 服务器上。它的错误
"{
"error": {
"code": 400,
"message": "Request contains an invalid argument.",
"errors": [
{
"message": "Request contains an invalid argument.",
"domain": "global",
"reason": "badRequest"
}
],
"status": "INVALID_ARGUMENT"
}"
有几个问题是 tf 为模型服务 gcp ai 与部署在 vm 上时是否有任何优势?谢谢您的帮助