问题标签 [nvidia-jetson-nano]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
deep-learning - 如何在 NVIDIA Jetson Nano 上将 U-Net 分割模型转换为 TensorRT?(进程终止错误)
我用 Keras 训练了一个 U-Net 分割模型(使用 TF 后端)。我正在尝试在 Jetson Nano 上将其冻结图 (.pb) 转换为 TensorRT 格式,但该过程被终止(如下所示)。我在其他帖子上看到它可能与“内存不足”问题有关。众所周知,我已经有一个在 Jetson Nano 上运行的 SSD MobileNet V2 模型。
如果我停止 systemctl,我可以使用 U-Net 模型进行推理,而无需将其转换为 TensorRT(仅使用加载了 Tensorflow 的冻结图模型)。由于这种方式在我启动 systemctl 时不起作用(所以当另一个神经网络正在运行时),我尝试将我的 U-Net 分割模型转换为 TensorRT 以获得它的优化版本(由于进程被杀死而失败),但这可能不是正确的方法。
是否可以在 Jetson Nano 上运行两个神经网络?有没有其他方法可以做到这一点?
有关信息,这是我尝试将冻结图转换为 TensorRT 的方式:
这是进程被终止的时间(将 U-Net 冻结图转换为 TensorRT):
opencv - Lepton 3.5 热像仪图像质量问题 [在 Jetson Nano 上运行]
我正在使用带有 Pure-thermal 2 的 Lepton 3.5。来自 Groupgets git 页面的 Jetson Nano 上编译的 C + V4l2 代码:https ://github.com/groupgets/purethermal1-uvc-capture 。
最初收到此错误消息 Libv4l 不接受 RGB24 格式。无法进行。然后将图像分辨率从 80x60 更改为 160x120 并将像素格式 YUYV 更改为 UYVY,然后代码可以正常工作但不能生成好的图像。该图像包含多个具有不同颜色的条带,如下所示:
将像素格式更改为灰色,分辨率为 640*480,生成如下图:
请任何人建议如何获得 GREY、UYVY 和其他支持格式的完美图像。
jupyter-notebook - Jupyter 密码未经过哈希处理
当我尝试设置 jupyter 笔记本密码时,打开 jupyter_notebook_config.json 文件时没有得到密码哈希。
这是 json 文件的输出:
我也尝试过从 python 运行 passwd() ,就像在网上找到的准备散列密码指令的说明中一样,但它产生的结果与上面相同。没有哈希。
有人可以让我知道我做错了什么吗?
我正在尝试以与 Deep Learing Institute Nano 构建类似的方式设置 Jetson Nano。通过该构建,您可以远程运行 Jupyter Lab,以便 nano 可以无头运行。我正在尝试做同样的事情,但没有运气。
谢谢!
python - 在jetson nano上使用python opencv加载相机的问题
我有一个连接到 jetson nano 的树莓派相机 v2。我可以通过运行命令gst-launch-1.0 nvarguscamerasrc sensor_mode=0 来加载相机!'video/x-raw(memory:NVMM),width=3820, height=2464, framerate=21/1, format=NV12' !nvvidconv 翻转方法=0 !'视频/x-raw,宽度=960,高度=616'!nvvidconv !nvegl变换!nveglglessink -e成功。
现在我正在尝试在 python 中构建一个模块,它将加载相机并将图像写入磁盘。但我收到错误[WARN:0] global /home/nvidia/host/build_opencv/nv_opencv/modules/videoio/src/cap_gstreamer.cpp (933) open OpenCV | GStreamer 警告:无法查询视频位置:状态=0,值=-1,持续时间=-1
我构建的代码在我的带有 USB 摄像头的 Windows 机器上运行良好。
有人可以帮我解决这个问题吗?
蟒蛇版本 - 3.6.9
opencv 版本 - 4.1.1
代码 -
java - 如何更改我的管道以在 Android 中流式传输并减少延迟?
我正在使用 gstream 通过 RTSP 协议从连接到 jetson nano 的相机流式传输到 Android 设备。
此时我可以在 vlc 中看到摄像头:
但我有 2 秒的延迟,我认为该格式对 Android 无效。我发现有人说我目前的格式是 h264 MPEG-4 AVC Part 10。
我使用 VideoView 在 Android 中进行流式传输。
编辑:滞后是一个 vlc 问题,我有一个 1000 毫秒的配置。
pyinstaller - Nvidia Jetson Nano 上的 TensorRT + PyInstaller。反序列化引擎导致 loadKernel 中的 Cuda 错误:3(初始化错误)
我有一个读取序列化TensorRT
引擎的代码:
在我的 Nvidia Jeston Nano 上运行得很好,直到我编译它Pyinstaller
在编译的代码中runtime.deserialize_cuda_engine
返回 None 并且记录器说:
当我从头开始构建引擎时,比如
然后一切正常,即使在编译之后也是如此。
引擎是trtexec
在同一台计算机上准备的。Cuda
版本是V10.2.89
,pycuda
版本是2019.1.2
。我相信这是截至 2020 年 8 月的标准 jetson 安装。
任何想法可能涉及这里以及可能的解决方法是什么?
python-3.x - 对象检测应用程序卡在 RingBuffer - 分配了 4 个缓冲区
我使用的是 NVIDIA Jetson Nano、JetPack 4.4.1、Ubuntu 18.04 和 Python 3.6.9。
当我尝试运行这个 python3 脚本时
脚本卡住或停止在您可以在下面看到的点:(也许一小时前一切正常,在运行此脚本和其他一些脚本后,问题发生了。)
知道我能做什么吗?如果需要更多信息,请告诉我。
最好的问候克里斯
c++ - OpenCV VideoCapture() 不起作用 - Ubuntu
OpenCV 4.5 - Ubuntu - Jetson Nano 2GB
您好,我在通过 OpenCV 从我的网络摄像头(通过 USB 连接到 JetsonNano)获取视频时遇到问题
这是我的代码:
1 | cv::VideoCapture cap(0)
给我:
2 | cv::VideoCapture cap("/dev/video0")
给我:
3 | 当我尝试通过命令打开相机时,只有这一项工作:
$ gst-launch-1.0 v4l2src device=\"/dev/video0\" ! xvimagesink
我试了一下:
cv::VideoCapture cap("v4l2src device=\"/dev/video0\" ! xvimagesink")
它给了我:
如果我给了其他接收器:autosink 或 appsink,它也不起作用。
4 | 我从该链接尝试了解决方案 https://forums.developer.nvidia.com/t/sony-camera-module-cannot-be-opened-with-opencv-on-xavier/84003
cv::VideoCapture cap("v4l2src device=/dev/video0 ! video/x-raw,width=1920,height=1080,format=UYVY,framerate=30/1 ! videoconvert ! video/x-raw,format=BGR ! appsink")
它给了我:
有人知道发生了什么以及如何解决它?
编辑#1:我的 OpenCV 构建信息:
谢谢~~
python - 如何从 jetson nano 获取 gps 数据?
假设我有一个带有 Jetson Nano 的 4g 模块的 Jetson Nano,就像这样
https://www.waveshare.com/sim7600g-h-4g-for-jetson-nano.htm
现在我如何使用 python 来生成 gps 数据?有没有图书馆或可以做这项工作的东西?还是我需要设置诸如烧瓶/django web之类的东西来从get/post方法读取gps数据?
你能给我的任何帮助都会很棒!
opencv - 有没有办法在 OpenCV 中跟踪预先检测到的对象
我有一个我想使用 OpenCV 跟踪的对象。在我的检测算法中,我可以在它看到的对象周围创建有界框,并且可以创建一个目标对象来正确跟踪。我的检测算法运行良好,但我想将此对象传递给跟踪算法。如果不重新编写检测和图像显示问题,我无法完成这项工作。如果有帮助,我正在使用带有 Intel Realsense 摄像头的 NVIDA Jetson Nanoboard。