1

我正在尝试在TF-Detect Android Demo中使用自定义模型。

型号:ssd_mobilenet_v1_coco

该模型在 8 个类上进行了训练。导出模型后,我使用Tensorflow-Mobile对其进行了优化

bazel-bin/tensorflow/tools/graph_transforms/transform_graph \
    --in_graph=frozen_inference_graph.pb \
    --out_graph=optimized_inf_graph.pb \
    --inputs='image_tensor' \
    --outputs='detection_boxes detection_scores detection_classes num_detections' \
    --transforms='fold_batch_norms  fold_old_batch_norms  quantize_weights'

该图在我的本地系统中提供了正确的输出,但是当它集成到应用程序中时,屏幕中没有显示输出。检测也是错误的。但是当我frozen_inference_graph.pb在应用程序中使用未优化的图形 ( ) 时,它工作正常。我得到输出。

我在这里拧干什么呢?

4

0 回答 0