问题标签 [tensorrt]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
3385 浏览

python - 如何仅使用一个 GPU 进行 tensorflow 会话?

我有两个 GPU。我的程序使用 TensorRT 和 Tensorflow。

当我只运行 TensorRT 部分时,这很好。当我与 Tensorflow 部分一起运行时,出现错误

问题是当 TensorFlow 会话开始时如下

它将两个 GPU 加载为

我试图只加载一个 GPU

(1)放在python代码之上

(2)

两者都不起作用。

如何解决问题?

0 投票
1 回答
1028 浏览

python - 使用 PyCUDA 和 TensorRT 遇到非法内存访问

我在 python 代码中使用了 TensorRT。所以我使用 PyCUDA。在以下推理代码中,an illegal memory access was encountered发生在stream.synchronize()

有什么问题?

编辑:我的程序是 Tensorflow 和 TensorRT 代码的组合。错误仅在我运行时发生

在运行 infer() 之前。如果我不运行上述两行,我没有问题。

0 投票
1 回答
2425 浏览

python-3.x - ModuleNotFoundError:没有名为“tensorrt”的模块

重建步骤:

回溯(最后一次调用): ModuleNotFoundError 中的
文件“”,第 1 行
:没有名为“tensorrt”的模块

其他可能有用的信息:

nvcc:NVIDIA (R) Cuda 编译器驱动程序
版权所有 (c) 2005-2019 NVIDIA Corporation
基于 Thu_Apr_18_19:10:59_PDT_2019
Cuda 编译工具,版本 10.1,V10.1.163

2019 年 6 月 9 日星期日 06:05:01
+---------------------------------------- -------------------------------------+
| NVIDIA-SMI 418.67 驱动程序版本:418.67 CUDA 版本:10.1 | |-------------------------------+----------------- -----+-----------+
| GPU名称持久化-M| 总线 ID Disp.A | 挥发性的 Uncorr。纠错 |
| Fan Temp Perf Pwr:Usage/Cap| 内存使用 | GPU-Util Compute M. |
|=================================+================= =====+========================|
| 0 GeForce RTX 208... 开 | 00000000:01:00.0 关闭 | 不适用 |
| 0% 37C P0 65W / 260W | 105MiB / 10989MiB | 2% 默认 |
+-------------------------------+------------------ -----+-----------+
| 1 GeForce RTX 208... 开 | 00000000:02:00.0 关闭 | 不适用 |
| 0% 35C P8 19W / 260W | 1MiB / 10989MiB | 0% 默认 |
+-------------------------------+------------------ -----+-----------+

+-------------------------------------------------- ----------------------------+
| 进程:GPU 内存 |
| GPU PID 类型 进程名称 用法 |
|=================================================== =============================|
+-------------------------------------------------- --------------------------------------------+

我可以确认 TensorRT 样本(仅检查 sampleMNIST)工作。我通过 nv-tensorrt-repo-ubuntu1804-cuda10.1-trt5.1.5.0-ga-20190427_1-1_amd64.deb 安装了样本。

还:

ii libnvinfer-dev 5.1.5-1+cuda10.1 amd64 TensorRT 开发库和头文件

ii libnvinfer-samples 5.1.5-1+cuda10.1 所有 TensorRT 示例和文档

ii libnvinfer5 5.1.5-1+cuda10.1 amd64 TensorRT 运行时库

0 投票
2 回答
1845 浏览

tensorflow - FP16 甚至不比在 TensorRT 中使用 FP32 快两倍

我使用了 TensorRT,Tensorflow 模型在 FP16 和 FP32 模式下转换为 TensorRT 引擎。

用 10 张图像进行测试,FP32 甚至不比 FP16 模式快两倍。预计至少快两倍。这是使用图灵架构的 Titan RTX 规格

EDIT_1:根据@y.selivonchyk 的回复,在Tesla T4 上进行了测试。但是FP16并不比FP32快。

这个结果可以接受吗?或者我还需要研究什么?

在本文档第 15 页中,FP32 和 FP16 之间存在 5 倍图像/秒的差异。

我的 UFF 模型和推理引擎序列化代码如下所示。

0 投票
1 回答
865 浏览

tensorflow - 错误:engine.cpp (370) - ~ExecutionContext 中的 Cuda 错误:77

我使用 TensorRT 进行 Int8 校准。

一旦校准完成并测试推理。我stream.synchronize()在以下函数中有错误。

在 FP32 和 FP16 引擎上运行没有问题。只有在 Int8 引擎上运行时出错。有什么问题?

0 投票
1 回答
130 浏览

tensorflow - 为什么使用 TensorRT 使用 INT8 推理输出更多数据

使用 TensorRT 实现 INT8 引擎推理。

训练批量大小为 50,推理批量大小为 1。

但在输出推断

[outputs] = common.do_inference(context, bindings=bindings, inputs=inputs, outputs=outputs, stream=stream, batch_size=1)

输出大小为 13680000。

它必须是 273600。使用 FP32/FP16 产生的输出大小为 273600。

为什么使用 INT8 的输出大小增加 5 倍?

我的推理代码是

0 投票
1 回答
86 浏览

python-3.x - 无法访问 virtualenv 中的系统站点包

全球蟒蛇

which python3.6

/usr/bin/python3

内部全局python3

import tensorrt

工作正常,但创建虚拟环境

mkvirtualenv -p /usr/bin/python3 --system-site-packages test

在 virtualenv 里面

import tensorrt

No module named 'tensorrt'

0 投票
2 回答
1768 浏览

tensorflow - 模块“tensorrt”没有属性“记录器”

我在导入 Logger() 和 Builder() 时遇到错误

我在 Jetson AGX Xavier 上。

我也尝试过python shell。

我也不能导入 trt.Builder() 。

Python 版本是 3.6.7

“dpkg -l | grep nvinfer”的输出给出了 Tensor RT 版本:

0 投票
1 回答
1704 浏览

tensorflow - TensorRT/TFlite 示例实现

拥有一个训练有素的 '.h5' Keras 模型文件,我正在尝试优化推理时间:

探索了2个选项:

  1. 通过 TensorRT 加速推理
  2. 'int8' 量化。

此时我可以将模型文件转换为 TensorFlow protobuf '.pb' 格式,但作为旁注,它还包含几层的自定义对象。

看了几篇关于 TensorRT 转换和 TFLite 转换的文章,但我似乎没有找到一个清晰易读的健壮实现。有人可以解释这是如何完成的(TFLite/Keras 量化或 TensorRT)以使用相同的模型进行更快的推理。

(开放其他建议以提高 TensorFlow 和 Keras 支持的推理速度)

0 投票
1 回答
852 浏览

tensorflow - 将冻结图转换为 TRT 图时 Jetson Nano 上的 TensorRT 错误

嘿,对 Tensorflow 和 TensorRT 来说都是新手,我无法将现有的冻结图转换为 tensorRT 图。我认为我拥有的代码没有成功转换我的图表。在 Nvidia Jetson Nano 上运行它。

我已尝试遵循此处看到的指南:https ://docs.nvidia.com/deeplearning/frameworks/tf-trt-user-guide/index.html#using-frozengraph

我得到的错误输出是:“在 load_object_detection_model ops = self.graph_obj.get_operations() AttributeError: 'list' object has no attribute 'get_operations'”对应于下面的代码:

(上面的代码紧跟在前面的代码片段之后)。

运行 Ubuntu 18.04、Python 3.6.8、TensorFlow 1.13.1。TensorRT 详细信息如下: