我正在尝试创建一个超级简单的 Tensorflow 网络(一个数据处理 Lambda 层),然后将模型转换为 ONNX,并在从 onnxruntime 调用 ONNX 模型时验证结果是否匹配。我正在使用 Tensorflow v2.5.0。& onnxruntime v1.8.1。
example_input2 = tf.convert_to_tensor([0,1000,2000,2000,2000,3000,3000,4000],dtype=tf.float32)
型号定义:
inp = keras.layers.Input(name="input", type_spec=tf.TensorSpec(shape=[None], dtype=tf.float32))
output = keras.layers.Lambda(lambda x: tf.roll(x,shift=-1,axis=0),name="output") (inp)
model = keras.Model(inp,output,name="pipeline")
然后我可以将我的 example_input2 输入网络:
model.predict(example_input2)
它提供了所需的输出(只需 tf.roll 操作):
array([1000., 2000., 2000., 2000., 3000., 3000., 4000., 0.],
dtype=float32)
伟大的!现在我可以保存我的 tensorflow 模型,
model.save("OnnxInvestigateData/pipeline2", overwrite=True, include_optimizer=False, save_format='tf')
然后在 shell 中,我可以使用 tf2onnx 将其转换为 ONNX 格式:
python -m tf2onnx.convert --opset 14 --saved-model pipeline2 --output pipeline2.onnx
然后,回到 python,我可以加载 onnx 模型并尝试输入相同的输入:
sess = rt.InferenceSession("OnnxInvestigateData/pipeline2.onnx", log_verbosity_level=2)
xinput = example_input2.numpy()
sess.run(['output'],{"args_0":xinput})
它提供与输入匹配的输出,而不是所需的输出(应该是 tf.roll'd by -1):
[array([ 0., 1000., 2000., 2000., 2000., 3000., 3000., 4000.],
dtype=float32)]
model.predict
当我从原始 keras 模型上的 python 中调用时,我完全不知道为什么这里的输出不匹配。有任何想法吗?