1

我想将托管模型TensorFlow-Lite 托管模型(主要是移动网络)转换为 ONNX 格式。所以我想尝试这些托管模型的量化版本并使用onnx-runtime运行它们。

将这些模型转换为onnx-runtime使用的正确程序是什么?

4

2 回答 2

0

有一个 tflite 到 onnx 转换器。我已经尝试过了,它对我有用。我不确定 tensorflow-lite 托管模型,但您可以尝试一下。就我而言,我将此转换器用于我开发的模型,并且效果很好。

import tflite2onnx

tflite_path = "path/to/the/tflitemodel"
onnx_path = "path/where/you/want/to/save/your/model" #modelname.onnx
tflite2onnx.convert(tflite_path,onnx_path)
于 2021-03-23T06:49:13.643 回答
0

我对 ONNX 很陌生,但根据他们的官方教程页面,没有 TFLite 到 ONNX 转换器。

您仍然可以使用 TensorFlow -> ONNX 转换路径。当您下载其中一个 TFLite 托管模型时,您将获得一个存档,其中包含用于转换 ( xxx_frozen.pb) 的原始 TensorFlow 冻结图,以及转换后的.tflite. 您可以采用冻结图形格式并将其输入 TensorFlow-ONNX 转换器,如下所示:

https://github.com/onnx/tensorflow-onnx#getting-started

于 2020-05-25T13:51:17.620 回答