0

我正在尝试将 mobilenetv2(ssd_mobilenet_v2_fpnlite_320x320_coco17_tpu-8 ) 模型转换为 EdgeTPU 模型以进行对象检测。我正在使用TF2。

我尝试了许多解决方案,但当我将 tflite 模型转换为边缘 tpu 时仍然有“cpu 操作”。如何转换整个 mobilenet 模型?

这是我的脚步;

  1. 下载预训练模型(mobilenetv2),准备数据集(来自 coco 的特定类)并训练您的模型。
  2. 导出检查点 ./exporter_main_v2.py,现在我在 saved_models 文件下有了“saved_model.pb,assest,checkpoints”。
  3. 转step2,现在安装tf-nightly 2.5.0.dev20210218和“export_tflite_graph_tf2.py”并导出模型。
  4. 这一步,尝试为 edgetpu(8bits) 量化模型并转换为 .tflite 文件。像这样的脚本;
  def representative_dataset_gen():
    for data in raw_test_data.take(10):
      image = data['image'].numpy()
      image = tf.image.resize(image, (320, 320))
      image = image[np.newaxis,:,:,:]
      image = image - 127.5
      image = image * 0.007843
      yield [image]
  
  raw_test_data, info = tfds.load(name="coco/2017", with_info=True, split="test", data_dir="/TFDS", download=False)

  converter =  tf.lite.TFLiteConverter.from_saved_model('~/saved_model')
  converter.optimizations = [tf.lite.Optimize.DEFAULT]
  converter.target_spec.supported_ops = [tf.lite.OpsSet.TFLITE_BUILTINS_INT8, tf.lite.OpsSet.SELECT_TF_OPS]
  converter.inference_input_type = tf.int8
  converter.inference_output_type = tf.int8
  converter.allow_custom_ops = True
  converter.representative_dataset = representative_dataset_gen
  tflite_model = converter.convert()
  
  with open('{}/model_full_integer_quant.tflite'.format('/saved_model'), 'wb') as w:

  w.write(tflite_model)
  1. 量化后从 netron 和这些模型属性可视化; 在此处输入图像描述

  2. 我使用“edgetpu_compiler”和我的最终模型将.tflite模型转换为edgetpu模型; 有 7 个 CPU 操作 在此处输入图像描述

4

0 回答 0