问题标签 [nvidia-deepstream]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
0 回答
316 浏览

nvidia-deepstream - deepstream sdk 可以在 GTX Geforce nvidia 显卡上工作吗?

我有一个旧的 geforce GTX (960 M) 显卡,我想使用 Deep-stream SDK,它是否支持老一代的显卡?

0 投票
0 回答
1313 浏览

nvidia-deepstream - Nvidia deepstream 5:GLib-GObject-CRITICAL 错误

我正在尝试在 docker 容器中安装 deepstream-5。我使用了一个具有以下规格的容器:来自Here的 10.2-cudnn7-tensorrt7-devel-ubuntu18.04 (cuda 10.2.89, nccl 2.7.8, cudnn 7.6.5.32, tensorrt 7.0.0.11) 。和python 3.6

之后,我按照官方网站中的说明安装了 deepstream-5。

当我运行他们的一项测试时:

我得到这个错误。我不知道如何解决它。 在此处输入图像描述

我尝试按照此处的建议删除缓存,现在我在错误旁边有警告:D。我检查了,并且已经有了警告中的两个文件。 在此处输入图像描述

我在 Nvidia-Forum 上问过。在这里

0 投票
1 回答
341 浏览

gstreamer - 无法从 deepstream 自定义解析器检索输出

我有一个使用深度流自定义边界框解析器的检测任务。我将推理结果存储在

以这种方式:

我打印了上面的值,它们确实存在。但是,当我尝试通过以下方式在我的程序中打印它们时:

它显示无或 0。根本没有输出。

知道我在哪一部分做错了吗?谢谢

0 投票
0 回答
991 浏览

python - 在 Deepstream SDK 中使用自定义 python 应用程序时帧率下降

使用 deepstream_app_config_yoloV3.txt 和 TRT 引擎文件 fp16.engine,我在 yolov3-spp 上的 FPS 为 15,在 yolov3-tiny 上的 FPS 为 30。

我的问题是:有没有办法重新创建我在 python deepstream 自定义应用程序上运行 deepstream_app_config_yoloV3.txtfps ?

因为我想提取检测到的对象名称和边界框坐标等元数据。如果我可以在deepstream_app_config_yoloV3.txt 应用程序(而不是 custom-app.py 脚本)上执行此操作,我将非常乐意放弃 python 脚本

我的设置:

Jetson Nano B01
Deep-stream 5.0
Jetpack 4.4
摄像头:CSI Pi-camera V2

这是 deepstream-app-test1 的修改版本,其中我更改了 Pi-cam 的源而不是视频文件。

在运行自定义应用程序时,由于有线批处理问题,我得到了大约 5 fps。我应该修改什么来停止这种批处理并增加 fps 吗?

我添加了一个“fps = 30/1”的参数,看看它是否会有所作为,但它并没有停止批处理

我的代码:

0 投票
1 回答
227 浏览

gstreamer - 无法使用 PyGObject 将 Nvstreamdemux 链接到 rtph264pay 元素

请提供适用于您的设置的完整信息。

• 硬件平台(Jetson / GPU) Jetson

• DeepStream 5.0版

• JetPack 版本(仅对 Jetson 有效) 4.4

• TensorRT 7.0版

• NVIDIA GPU 驱动程序版本(仅对 GPU 有效) • 问题类型(问题、新要求、错误)问题 • 如何重现问题?(这是针对错误的。包括正在使用的示例应用程序、配置文件内容、使用的命令行以及其他用于重现的详细信息)

• 需求详情(这是针对新需求。包括模块名称-哪个插件或哪个示例应用程序,功能描述)

我正在尝试在运行时为 nvstreamdemux 元素创建源垫,并链接到位于列表中的几个 rtph264pay 元素:rtppayload_list。上面给出的代码导致以下错误:gi.overrides.Gst.LinkError:

任何帮助,将不胜感激。谢谢 !

0 投票
0 回答
335 浏览

docker - OCI 运行时执行失败:container_linux.go:349:启动容器进程导致 process_linux.go 无法调整 tty 大小,使用默认大小

我正在使用此处列出的 Deepstream-5.0 容器。我们使用 NVIDIA 2080 TI 作为主机。

在 docker 容器内,以下服务正在运行:

  • 定时服务
  • 主管
  • 一个包含 Deepstream-5.0 管道的 python 进程

容器运行 24x7 等进程,但在 4-5 天内,supervisord 停止运行一次,当我们尝试重新启动它时,它会说:重新启动 supervisord:

但是我们应该在 supervisord 重新启动后启动的自定义服务没有重新启动并给出错误: 在此处输入图像描述

为了解决这个问题,当我尝试 docker restart 并尝试运行 docker exec 时,它会出现以下错误: 在此处输入图像描述

我检查了系统日志和 docker 日志,但日志中没有错误。

请提出可能是什么问题,如果需要任何其他细节,请告诉我。

谢谢。

0 投票
0 回答
87 浏览

tcp - 如何启用 NVIDIADeepstreamSDK Azure IoTEdge 模块从本地 rtsp 接收消息?

我在我的 Jetson nano 上安装了 Azure IoTEdge,并使用 /etc/iotedge/config.yaml 中的安全守护程序文件设备提供了 IoTEdge 运行时。

我看到 IoT Edge 守护程序的状态是活动的(正在运行),并且我正在使用的所有 6 个 IoTEdge 运行时模块都在运行: 控制台图像

-----------------名称 -------- 状态---------

  • CameraTaggingModule ---------- 正在运行
  • DeepStreamAnalytics ------------ 运行
  • NVIDIADeepStreamSDK -------- 运行
  • azureblobstorageoniotedge ---- 正在运行
  • edgeAgent -------------- 正在运行
  • edgeHub ---------------------------- 正在运行

但是我的 NVIDIADeepStreamSDK 模块不想从我的 RTSP 摄像头接收消息,该摄像头也与 Jetson 位于同一网络中,我看到它的这个模块的日志,它说:

如果我使用像BigBugBunny rtsp这样的公共 RTSP,NVIDIADeepStreamSDK 模块可以成功接收消息,所以我猜这个问题可能与本地网络的某些配置有关。还是应该公开我的 RTSP 摄像机?还是我应该提供一些带有 DNS 规范的 json 文件?无论哪种情况,解决这个问题的最佳方法是什么?感谢您提出任何建议来完成这项工作,谢谢。

0 投票
0 回答
673 浏览

nvidia-deepstream - 分段错误:在 Ubuntu 上运行 nvidia deepstream 5.0 SDK

尝试按照文档(DeepStream 开发指南 — DeepStream DeepStream 版本:5.0 文档)在 ubuntu 18.04 上运行 nvidia 的 deepstream5.0 sdk(示例程序)。

  • 硬件平台(Jetson / GPU)=GPU NVIDIA GEFORCE RTX 2060
  • TensorRT 版本=7.0
  • NVIDIA GPU 驱动程序版本(仅对 GPU 有效):450.102
  • 问题类型(问题、新要求、错误)=错误
  • GCC=7.5
  • 蟒蛇3.7
  • CUDNN 7.6.5
  • CUDA 10.2

应用程序安装在路径:“/opt/nvidia/deepstream/deepstream-5.0/”。

执行命令为“deepstream-app -c”

例子:

但是在打开空白屏幕并突然关闭后出现分段错误

我的 nvidia 驱动和 cuda 版本如下所示: 我的 nvidia 驱动和 cuda 版本如下所示:

0 投票
1 回答
240 浏览

nvidia-jetson - NVidia DeepStream 输出推理类不匹配 - “车辆类”

• 硬件平台(Jetson / GPU) Jetson Nano 4GB,Ubuntu 18.4

• DeepStream 版本 marketplace.azurecr.io/nvidia/deepstream-iot2-l4t:latest

• JetPack 4.3版

• 问题类型 输出推理类与模型类不同

• 如何重现问题? 在 DeepStream 上,部署对象检测 ONNX 模型。我的模型是从 Azure Custom Vision 导出的 ONNX 模型。我的标签文件有 2 个类 - 'Mask'、'No_Mask'。部署工作正常,我可以使用 DeepStream 执行我的模型。但是,我得到的输出推理类为“Vehicle”和“No_Mask”。你能帮我理解为什么我的模型中没有输出推断标签为“车辆”。

示例输出推理日志 {"log":" "1|324|23|380|61|Vehicle|#||||||0"\n","stream":"stdout","time":" 2021-01-05T16:15:15.614591738Z"}

{"log":" "1|324|23|380|61|Vehicle|#|||||||0"\n","stream":"stdout","time":"2021-01- 05T16:15:15.614790179Z"}

{"log":" "2|141|15|365|161|No Mask"\n","stream":"stdout","time":"2021-01-05T16:15:15.614221209Z"}

0 投票
1 回答
65 浏览

python - 发送对象元数据会导致流中的 FPS 下降

我想在检测到对象时将一些对象元数据(class_id、置信度值等)发送到另一台 PC,但这会导致 FPS 下降并且流被冻结。我应该使用哪种并行编程技术来解决它?你能给我一个例子吗?

检查是否在 class_dict 中检测到对象:

我正在使用这个函数来发送 class_id 消息。