0

背景

我正在使用 MediaPipe 进行手部跟踪,发现这个有用的包装器可用于加载 MediaPipe 的hand_landmark.tflite模型。它在带有 Tensorflow 1.14.0 的 Ubuntu 18.04 上对我来说没有任何问题。

但是,当我尝试使用最近发布的新模型时,我遇到了以下错误:

INFO: Initialized TensorFlow Lite runtime.
Traceback (most recent call last):
  File "/home/user/code/.../repo/models/test_model.py", line 12, in <module>
    use_mediapipe_model()
  File "/home/user/code/.../repo/models/test_model.py", line 8, in use_mediapipe_model
    interp_joint.allocate_tensors()
  File "/home/user/code/env/lib/python3.6/site-packages/tensorflow/lite/python/interpreter.py", line 95, in allocate_tensors
    return self._interpreter.AllocateTensors()
  File "/home/user/code/env/lib/python3.6/site-packages/tensorflow/lite/python/interpreter_wrapper/tensorflow_wrap_interpreter_wrapper.py", line 106, in AllocateTensors
    return _tensorflow_wrap_interpreter_wrapper.InterpreterWrapper_AllocateTensors(self)
RuntimeError: tensorflow/lite/kernels/dequantize.cc:62 op_context.input->type == kTfLiteUInt8 || op_context.input->type == kTfLiteInt8 was not true.Node number 0 (DEQUANTIZE) failed to prepare.

在查看 Netron 中的两个模型时,我可以看到较新的模型使用了Dequantize似乎会导致问题的类型的节点。由于我是 Tensorflow 的初学者,所以我真的不知道从哪里开始。

重现错误的代码

from pathlib import Path
import tensorflow as tf


def use_mediapipe_model():
    interp_joint = tf.lite.Interpreter(
        f"{Path(__file__).parent}/hand_landmark.tflite") # path to model
    interp_joint.allocate_tensors()


if __name__ == "__main__":
    use_mediapipe_model()

问题

.tflite问题与我正在使用的 Tensorflow 版本有关,还是在加载模型时我做错了什么?

4

1 回答 1

0

在 TF 1.14.0 中不起作用。您至少需要 1.15.2

于 2020-06-13T02:30:45.037 回答