我正在检查使用预先训练的 deeplab xception65_coco_voc_trainval模型运行图像分割的选项。
冻结模型大小约为 161MB,将其转换为 tflite 后大小约为 160MB,在我的 PC cpu 上运行此模型需要约 25 秒。
这是“预期的”还是我可以做得更好?
到 tflite 的转换如下:
tflite_convert \
--graph_def_file="deeplabv3_pascal_trainval/frozen_inference_graph.pb" \
--output_file="deeplab_xception_pascal.tflite" \
--output_format=TFLITE \
--input_shape=1,513,513,3 \
--input_arrays="sub_7" \
--output_arrays="ArgMax" \
--inference_type=FLOAT \
--allow_custom_ops
谢谢!