0

我想为自定义模型提交批量预测作业(在我的情况下它是火炬模型,但我认为在这种情况下这无关紧要)。所以我阅读了文档: 从文件列表批量预测

但是由于没有示例,我无法确定顶点 ai 将发送到我的模型的 json 对象的模式是什么。有人做过这项工作吗?

我最好的猜测是该请求将包含以下正文:

{'instance' : <b64-encoded-content-of-the-file>}

但是当我阅读文档(关于顶点 ai 的其他“特征”)时,我也可以想象以下主体:

{'instance': {'b64' : <b64-encoded-content-of-the-file>}}

有人真的知道吗?

我做的另一件事是制作一个“假模型”,它返回它得到的请求……当我提交批处理预测作业时,它实际上成功完成了,但是当我检查输出文件时它是空的……所以.. . 我实际上需要帮助/更多时间来思考其他方法来破译顶点 AI 文档。

提前致谢!

4

1 回答 1

1

Vertex AI自定义容器应该用一个端点(预测)包装一个服务来接收一个实例列表,每个都是一个 json 可序列化对象

{'instances': [{'b64' : <b64-encoded-content-of-the-file1>}, {'b64' : <b64-encoded-content-of-the-file1>}, ...]}
于 2021-07-20T11:50:02.423 回答