我正在使用 Coral 开发板和 Nvidia Jetson TX2。这就是我了解 TensorFlow-Lite、TensorFlow-TRT 和 TensorRT 的方式。我对他们有一些疑问:
在 TensorFlow-TRT 和 TensorRT 之间:当使用完全优化/兼容的图和 TensorRT 时,哪个更快,为什么?
在 Google Coral 中使用 TFlite 的管道(使用 TensorFlow 1.x 时...)是:
一个。使用 TensorFlow 动物园中可用的模型
湾。将模型转换为冻结 (.pb)
C。使用 protobuff 序列化图
d。转换为 Tflite
e. 应用量化 (INT8)
F。编译
使用 TensorFlow-TRT 和 TensorRT 时的管道是什么?有没有什么地方可以找到关于它的好文档?
到目前为止,我认为 TensorRT 更接近 TensorFlow Lite,因为:
TFlite:编译后你会得到一个 .quant.edtpu.tflite 文件,可以用来在开发板中进行推理
TensorRT:你最终会得到一个 .plan 文件来在开发板中进行推理。
感谢您的回答,如果您能指出比较它们的文档,将不胜感激。