问题标签 [nvidia-deepstream]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
opencv - 如何理解 linux 中 TOP 命令中显示的内存使用百分比
我正在使用来自 Nvidia 的 Deepstream SDK 并在图像中绘制 50% 的透明矩形。在从 opencv 应用此行之前
我的应用程序的内存使用量仅为 12%。使用上述线路后,内存使用率增加到 220%。我有点困惑。220% 的内存使用是什么意思?但应用程序运行速度不受影响,即使内存使用量增加超过 100%。我的查询是(1)如何在 Linux 中使用 TOP 命令了解 % 内存使用情况?(2)是否需要关心应用程序是否 24/7 运行?
python-3.x - 在 Nvidia Jetson Nano 中播放视频的 Python 代码
我正在使用 Nvidia Jetson Nano 通过 python 代码流式传输和播放视频。
但我所看到的是我的 CPU 使用率非常高,并且对它的 GPU 没有太大影响。所以这会给我带来一个问题,因为我将无法正确使用我的 GPU。
我使用此设备的目的是获得更好的速度和性能,但我发现我无法很好地利用我的 GPU。请有人帮我做什么,这样我的代码将主要在 GPU 上处理,从而减轻 CPU 的负担。
我正在使用 python 的 cv2 模块来播放视频。
windows - Windows 上的 DeepStream 推理
如果我在 Linux 上使用 NVidia DeepStream SDK 训练模型,我可以在 Windows 上使用它进行推理吗?
我知道 SDK 不适用于 Windows,但是否有必要进行推理?
我更喜欢没有 docker 的解决方案,但也对 dockered 版本感兴趣。
c - 在 Gstreamer 管道中重新连接 RTSP 流
我有一个使用 RTSP 输入流的工作 Gstreamer 管道。为了处理这些给定的 RTSP 输入流,使用了 uridecobin 元素。
我的目标是在互联网连接不稳定时重新连接到 RTSP 输入流。当互联网连接仅关闭几秒钟然后又启动时,管道再次开始接收帧,一切正常。当互联网连接中断 > 20 秒时,我会收到 GST_MESSAGE_EOS。我试图在 uridecodebin 生成的每个元素中找到一些超时变量,但我没有找到。您是否有任何提示哪个元素具有此超时变量以及如何设置它?
如果无法设置这样的超时变量,有没有办法阻止 GST_MESSAGE_EOS?因为当我在总线上收到 GST_MESSAGE_EOS 时,我尝试从管道中删除 uridecodebin 并创建一个新的。但是当收到 GST_MESSAGE_EOS 时它对我不起作用(当我尝试从管道中删除 uridecodebin 并在正常状态下创建一个新的时,它可以工作)。
c++ - 使用 GStreamer 同时提取视频帧
我可以使用 GStreamer 或 GST-Launch 从两个 jpeg 格式的视频中同时提取帧吗?假设video1有10帧,video2有10帧,那么提取应该像frame_1_video1.jpg然后frame_1_video2.jpg然后frame_2_video1.jpg然后frame_2_video2.jpg等等......这可能吗?
谢谢
python - 使用ffmpeg从两个视频中同时提取帧
我想知道使用 FFmpeg 同时提取两个视频而不是顺序的图像的 CLI 命令和脚本。例如 - 第一个视频的第一帧,第二个视频的第一帧和第一个视频的第二帧,然后是第二个视频的第二帧,依此类推。
视频为 mp4 或 asf,图片为 jpeg
pytorch - 没有找到模块 手电筒
我正在使用具有 cuda 10.2.89、open Cv 4.1.1 和 tensorRT 7.1.3 的 jetson NX xavier 套件。尝试安装 pytorch。尝试使用此行安装
但是当我写下这一行时
它通过说该模块未安装来引发错误。
我如何验证 pytorch 是否已正确安装。
nvidia-jetson - 使用没有检测的 DeepStream 跟踪器
我正在尝试先使用 Deepstream 跟踪器(KTL、IOU、NvDCF),然后再不检测。
我似乎找不到如何使用 Deepstream 跟踪器的正确指南,并且在使用提供的使用其中一个跟踪器的示例示例时,它们似乎不起作用,跟踪器没有被初始化,也许我已经开始了错误,但它不会进入跟踪 if 语句。
如果有人知道如何使用 deepstream 跟踪器,并且可以在不跟踪的情况下做到这一点(例如,仅从鼠标选择中插入 bbox),我将不胜感激
ubuntu - GStreamer / Deepstream:加载插件时没有这样的文件或目录
Gstreamer 给我错误报告它无法加载插件,因为它们的文件不存在。但是,这些文件确实存在。
输出:
为了重现该问题,您可以在同一目录中创建以下两个文件。
Dockerfile:
start_example.sh :
然后运行:
文件librivermax.so.0
,libtritonserver.so
在系统中找不到。
url - Gstreamer RTSPMediaFactory如何选择视频源
我在这里运行 Deepstream 示例https://github.com/NVIDIA-AI-IOT/deepstream_python_apps/blob/master/apps/deepstream-rtsp-in-rtsp-out/deepstream_test1_rtsp_in_rtsp_out.py。该代码解码 rtsp 视频流,它使用 AI 检测对象,并输出带有检测对象边界框的 rtsp 视频流。示例使用RTSPMediaFactory
. 来自 GitHub(此处复制以供将来参考):
现在,如果我连接到,rtsp://localhost:8554/ds-test
我实际上可以按预期播放输出视频。但是如果代码正在处理多个视频会发生什么?我可以访问每个输出视频吗?我不确定如何选择视频流。url 结构是什么?(例如rtsp://localhost:8554/ds-test/1
不工作)。我需要为此编辑示例代码吗?