我知道可以为谷歌云上的培训作业部署自定义容器,并且我已经能够使用命令获得相同的运行。
gcloud ai-platform jobs submit training infer name --region some_region --master-image-uri=path/to/docker/image --config config.yaml
训练工作成功完成,模型成功获取,现在想用这个模型进行推理,但是问题是我的代码有一部分系统级依赖,所以我必须对架构进行一些修改才能让它一直运行。这就是首先为培训工作提供自定义容器的原因。
据我所知,该文档仅适用于训练部分和推理部分,(如果可能的话)自定义容器尚未探索。
此链接上提供了培训部分文档
我的问题是,是否可以在 google cloud-ml 上部署自定义容器以进行推理?