我正在尝试在TF-Detect Android Demo中使用自定义模型。
型号:ssd_mobilenet_v1_coco
该模型在 8 个类上进行了训练。导出模型后,我使用Tensorflow-Mobile对其进行了优化
bazel-bin/tensorflow/tools/graph_transforms/transform_graph \
--in_graph=frozen_inference_graph.pb \
--out_graph=optimized_inf_graph.pb \
--inputs='image_tensor' \
--outputs='detection_boxes detection_scores detection_classes num_detections' \
--transforms='fold_batch_norms fold_old_batch_norms quantize_weights'
该图在我的本地系统中提供了正确的输出,但是当它集成到应用程序中时,屏幕中没有显示输出。检测也是错误的。但是当我frozen_inference_graph.pb
在应用程序中使用未优化的图形 ( ) 时,它工作正常。我得到输出。
我在这里拧干什么呢?