我已经成功地从头开始在自定义 200 个类上训练了 inception v3 模型。现在我的输出目录中有 ckpt 文件。如何使用这些模型进行推理?
最好将模型加载到 GPU 上,并在模型保留在 GPU 上时随时传递图像。使用 TensorFlow 服务对我来说不是一个选项。
注意:我尝试冻结这些模型,但在冻结时未能正确放置 output_nodes。已使用ImagenetV3/Predictions/Softmax
但不能与 feed_dict 一起使用,因为我无法从冻结模型中获得所需的张量。
TF 站点和 repo 上关于此推理部分的文档很差。