0

我正在尝试将 onnx AI 模型文件转换为 nvidia tensorrt 文件。硬件:NVIDIA xavier AGX。tensorrt 版本和硬件信息:

NVIDIA Jetson AGX Xavier [16GB]

  • 喷气背包 4.5.1 [L4T 32.5.1]
  • NV 电源模式:MAXN - 类型:0
  • jetson_stats.service:活跃
  • 图书馆:
    • CUDA:10.2.89
    • cuDNN:8.0.0.180
    • 张量RT:7.1.3.0
    • Visionworks:1.6.0.501
    • OpenCV:3.4.15-dev 编译 CUDA:否
    • VPI:ii libnvvpi1 1.0.15 arm64 NVIDIA 视觉编程接口库
    • 伏尔甘:1.2.70

但是,当我运行代码时

with trt.Builder(TRT_LOGGER) as b, b.create_network(explicit_batch) as n, trt.OnnxParser(n, TRT_LOGGER),

我收到以下错误:

从 onnx 文件构建 fp32 TensorRT 引擎...
开始 ONNX 文件解析
[TensorRT] 警告:onnx2trt_utils.cpp:220:您的 ONNX 模型已使用 INT64 权重生成,而 TensorRT 本身不支持 INT64。试图降低到 INT32。
解析 onnx 文件发现 1 个错误。

Onnx 模型文件: Conv pads: 1, 1, 2, 2。

有谁知道如何修理它?

4

0 回答 0