我正在使用 tensorflow 的对象检测 api 来训练我自己的对象检测模型。目前在 tensorflow 1.15 上使用 ssd_inception_v2。我之前使用这个 api 训练了许多模型,但我想要做的是提高我的推理时间。我想尝试通过将这些行添加到我可以执行 qat 的配置文件中发现的量化意识训练。
graph_rewriter {
quantization {
delay: 48000
weight_bits: 8
activation_bits: 8
}
}
现在我的问题是,在完成培训后,我是否需要将我的冻结模型转换为 tflite 以利用 8 位精度?或者如果我直接使用我的冻结模型,它会使用 8 位精度吗?如果不是,我如何将我的 pb 转换为 tflite 并对此进行推断?