我正在尝试将 mobilenetv2(ssd_mobilenet_v2_fpnlite_320x320_coco17_tpu-8 ) 模型转换为 EdgeTPU 模型以进行对象检测。我正在使用TF2。
我尝试了许多解决方案,但当我将 tflite 模型转换为边缘 tpu 时仍然有“cpu 操作”。如何转换整个 mobilenet 模型?
这是我的脚步;
- 下载预训练模型(mobilenetv2),准备数据集(来自 coco 的特定类)并训练您的模型。
- 导出检查点 ./exporter_main_v2.py,现在我在 saved_models 文件下有了“saved_model.pb,assest,checkpoints”。
- 转step2,现在安装tf-nightly 2.5.0.dev20210218和“export_tflite_graph_tf2.py”并导出模型。
- 这一步,尝试为 edgetpu(8bits) 量化模型并转换为 .tflite 文件。像这样的脚本;
def representative_dataset_gen():
for data in raw_test_data.take(10):
image = data['image'].numpy()
image = tf.image.resize(image, (320, 320))
image = image[np.newaxis,:,:,:]
image = image - 127.5
image = image * 0.007843
yield [image]
raw_test_data, info = tfds.load(name="coco/2017", with_info=True, split="test", data_dir="/TFDS", download=False)
converter = tf.lite.TFLiteConverter.from_saved_model('~/saved_model')
converter.optimizations = [tf.lite.Optimize.DEFAULT]
converter.target_spec.supported_ops = [tf.lite.OpsSet.TFLITE_BUILTINS_INT8, tf.lite.OpsSet.SELECT_TF_OPS]
converter.inference_input_type = tf.int8
converter.inference_output_type = tf.int8
converter.allow_custom_ops = True
converter.representative_dataset = representative_dataset_gen
tflite_model = converter.convert()
with open('{}/model_full_integer_quant.tflite'.format('/saved_model'), 'wb') as w:
w.write(tflite_model)