我已经在笔记本电脑上通过 MiniKF 安装了 Kubeflow。我正在尝试对一些使用 TensorFlow 1.4.0 的 MNIST 数据运行 CNN。目前,我正在关注本教程:https ://codelabs.arrikto.com/codelabs/minikf-kale-katib-kfserving/index.html#0
该代码位于 Jupyter Notebook 服务器中,运行良好。当我构建管道时,它已成功完成。但是在“Serving”步骤中,当我在模型上运行 kfserver 命令时,出现了奇怪的行为:它卡在“Waiting for InferenceService”。
成功运行的示例屏幕截图如下所示,该过程必须以正在创建的服务结束: 在此处输入图像描述