我正在尝试使用 tf-serving 来部署我的火炬模型。我已将我的手电筒模型导出到 onnx。如何为 tf-serving 生成 pb 模型?
问问题
11023 次
1 回答
10
使用onnx/onnx-tensorflow转换器工具作为 ONNX 的 TensorFlow 后端。
安装 onnx-tensorflow:
pip install onnx-tf
使用命令行工具进行转换:
onnx-tf convert -t tf -i /path/to/input.onnx -o /path/to/output.pb
或者,您可以通过 python API 进行转换。
import onnx
from onnx_tf.backend import prepare
onnx_model = onnx.load("input_path") # load onnx model
tf_rep = prepare(onnx_model) # prepare tf representation
tf_rep.export_graph("output_path") # export the model
于 2020-02-05T21:27:48.303 回答