1

我已经在笔记本电脑上通过 MiniKF 安装了 Kubeflow。我正在尝试对一些使用 TensorFlow 1.4.0 的 MNIST 数据运行 CNN。目前,我正在关注本教程:https ://codelabs.arrikto.com/codelabs/minikf-kale-katib-kfserving/index.html#0

该代码位于 Jupyter Notebook 服务器中,运行良好。当我构建管道时,它已成功完成。但是在“Serving”步骤中,当我在模型上运行 kfserver 命令时,出现了奇怪的行为:它卡在“Waiting for InferenceService”。

成功运行的示例屏幕截图如下所示,该过程必须以正在创建的服务结束: 在此处输入图像描述

4

1 回答 1

0

停留在“等待推理服务”意味着管道没有获得可服务的主机名。您还可以通过运行来验证这一点kubectl get inferenceservices,您的新推理服务的READY状态应该为 True。如果不是这种情况,则部署失败。

推理服务未处于就绪状态可能有很多不同的原因,在 kfserving 的 repo 中有一个很好的故障排除指南。

于 2021-08-30T13:25:52.710 回答