我想为自定义模型提交批量预测作业(在我的情况下它是火炬模型,但我认为在这种情况下这无关紧要)。所以我阅读了文档:
但是由于没有示例,我无法确定顶点 ai 将发送到我的模型的 json 对象的模式是什么。有人做过这项工作吗?
我最好的猜测是该请求将包含以下正文:
{'instance' : <b64-encoded-content-of-the-file>}
但是当我阅读文档(关于顶点 ai 的其他“特征”)时,我也可以想象以下主体:
{'instance': {'b64' : <b64-encoded-content-of-the-file>}}
有人真的知道吗?
我做的另一件事是制作一个“假模型”,它返回它得到的请求……当我提交批处理预测作业时,它实际上成功完成了,但是当我检查输出文件时它是空的……所以.. . 我实际上需要帮助/更多时间来思考其他方法来破译顶点 AI 文档。
提前致谢!