我想将托管模型TensorFlow-Lite 托管模型(主要是移动网络)转换为 ONNX 格式。所以我想尝试这些托管模型的量化版本并使用onnx-runtime运行它们。
将这些模型转换为onnx-runtime使用的正确程序是什么?
我想将托管模型TensorFlow-Lite 托管模型(主要是移动网络)转换为 ONNX 格式。所以我想尝试这些托管模型的量化版本并使用onnx-runtime运行它们。
将这些模型转换为onnx-runtime使用的正确程序是什么?
有一个 tflite 到 onnx 转换器。我已经尝试过了,它对我有用。我不确定 tensorflow-lite 托管模型,但您可以尝试一下。就我而言,我将此转换器用于我开发的模型,并且效果很好。
import tflite2onnx
tflite_path = "path/to/the/tflitemodel"
onnx_path = "path/where/you/want/to/save/your/model" #modelname.onnx
tflite2onnx.convert(tflite_path,onnx_path)
我对 ONNX 很陌生,但根据他们的官方教程页面,没有 TFLite 到 ONNX 转换器。
您仍然可以使用 TensorFlow -> ONNX 转换路径。当您下载其中一个 TFLite 托管模型时,您将获得一个存档,其中包含用于转换 ( xxx_frozen.pb
) 的原始 TensorFlow 冻结图,以及转换后的.tflite
. 您可以采用冻结图形格式并将其输入 TensorFlow-ONNX 转换器,如下所示: