我正在尝试将 onnx AI 模型文件转换为 nvidia tensorrt 文件。硬件:NVIDIA xavier AGX。tensorrt 版本和硬件信息:
NVIDIA Jetson AGX Xavier [16GB]
- 喷气背包 4.5.1 [L4T 32.5.1]
- NV 电源模式:MAXN - 类型:0
- jetson_stats.service:活跃
- 图书馆:
- CUDA:10.2.89
- cuDNN:8.0.0.180
- 张量RT:7.1.3.0
- Visionworks:1.6.0.501
- OpenCV:3.4.15-dev 编译 CUDA:否
- VPI:ii libnvvpi1 1.0.15 arm64 NVIDIA 视觉编程接口库
- 伏尔甘:1.2.70
但是,当我运行代码时
with trt.Builder(TRT_LOGGER) as b, b.create_network(explicit_batch) as n, trt.OnnxParser(n, TRT_LOGGER),
我收到以下错误:
从 onnx 文件构建 fp32 TensorRT 引擎...
开始 ONNX 文件解析
[TensorRT] 警告:onnx2trt_utils.cpp:220:您的 ONNX 模型已使用 INT64 权重生成,而 TensorRT 本身不支持 INT64。试图降低到 INT32。
解析 onnx 文件发现 1 个错误。
Onnx 模型文件: Conv pads: 1, 1, 2, 2。
有谁知道如何修理它?