问题标签 [jetson-xavier]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ubuntu - 无法在jetson agx xavier上安装anaconda
[/home/aimotion/anaconda3] >>> PREFIX=/home/aimotion/anaconda3 解压payload ... /home/aimotion/Downloads/Anaconda3-2021.05-Linux-x86_64 (1).sh: line 381: /home/ aimotion/anaconda3/conda.exe: 无法执行二进制文件: 执行格式错误 /home/aimotion/Downloads/Anaconda3-2021.05-Linux-x86_64 (1).sh: line 383: /home/aimotion/anaconda3/conda.exe:无法执行二进制文件:执行格式错误
如何解决这个问题?
python-3.x - (V4L2: /dev/video0) 无法按索引打开相机
我的 Jetson Xavier NX 算法出现错误。我尝试运行代码,但终端说:
[WARN:0] global /home/arc/opencv_build/opencv/modules/videoio/src/cap_v4l.cpp (890) open VIDEOIO(V4L2:/dev/video0): can't open camera by index Traceback (最近调用最后):文件“realtime_quadrant.py”,第 41 行,高度 = frame.shape AttributeError:'NoneType' 对象没有属性 'shape'
这意味着我必须在 camera = cv2.VideoCapture(0) 中更改 0。
所以我尝试
但我仍然有同样的错误。我还安装了 V4l2 ( Sudo apt-get install v4l2) 我该怎么做才能运行?
opencv - 在 conda 环境中在 jetson xavier NX 上构建带有 Gstreamer 支持的 opencv
因此,我一直在努力构建具有 cuda 和 gstreamer 等所需的所有支持的 opencv 并且终于能够找到一个好的 cmake 命令来在原始的 jetpack 构建中构建它,但是当尝试下载其他软件包以与 opencv 一起使用时我已经打了很多块。我尝试在 conda 环境中构建它来控制所有包和依赖项,但我无法做到。cmake 确实可以识别 Gstreamer,但是当尝试使用它打开 PI 相机时,它会发出许多错误,就好像它无法识别一些 Gstreamer 文件一样,我的第一个想法是它有路径问题,但我似乎找不到改变 Gstreamer 的方法文件路径。错误是缺少文件,但是当我进入 Gstreamer 库时,我找到了文件。
我的主要问题是,有没有人有一个很好的 cmake 命令行来在 conda 环境中使用 Gstreamer 构建 opencv,或者有没有人知道如何做。这个问题确实阻碍了我在涉及跟踪器和更高级视觉模块的项目上的进展,因为大多数跟踪器 bash 文件在我的 gstreamer 不工作的 conda 环境中下载它,并且当我尝试在主环境中下载它们时出现很多错误,例如无法制造车轮。任何帮助将不胜感激
camera - jetson xavier nx 相机不适用于奶酪
我在命令上运行“ls /dev/video0”,它显示“/dev/video0”。
当我跑步之后
'gst-launch-1.0 nvarguscamerasrc !'video/x-raw(memory:NVMM),width=3820, height=2464, framerate=21/1, format=NV12' !nvvidconv 翻转方法=0 !'视频/x-raw,宽度=960,高度=616'!nvvidconv !nvegl变换!nveglglessink -e',它说
'将管道设置为 PAUSED ...
使用 winsys:x11 管道是实时的,不需要 PREROLL ... 从元素“eglglessink0”获取上下文:gst.egl.EGLDisplay=context, display=(GstEGLDisplay)NULL; 将流水线设置为 PLAYING ... 新时钟:生成 GstSystemClock 错误。/dvs/git/dirty/git-master_linux/multimedia/nvgstreamer/gst-nvarguscamera/gstnvarguscamerasrc.cpp,执行:725 没有可用的相机从元素“pipeline0”获取 EOS。0:00:00.059461447 后执行结束 将管道设置为 PAUSED ... 将管道设置为 READY ... 将管道设置为 NULL ... 释放管道 ...'
此时,相机似乎可以打开但无法打开。我该怎么办?
makefile - 使用 makefile 编译时对“zmq_ctx_new”的未定义引用
我在我的 linux-ubuntu 风格的 NVIDIA Jetson Xavier 上安装了 zmq,如下所示:
我创建了一个简单的 ZMQ 服务器,它在 C++ 程序中使用 PUSH/PULL 架构。我可以使用 CLI 编译它,如下所示:
然后我将此代码集成到具有更多库和依赖项的更大应用程序中。这是使用 makefile ( makefile.config
) 编译的。要编译更新的应用程序,我需要将-lzmq
标志添加到原始 makefile。这就是我所做的:
但是在跑步sudo make clean && sudo make
时,我得到
Makefile 很简单
原文makefile.config
可以在这里找到
我觉得我搞砸了 makefile,因为 zmq 在使用gcc
.
linux - 如何在 gstreamer 中使用 nvargus 相机捕获原始图像 (.png)
我正在尝试使用此处显示的 4k 相机为我的 AI 应用程序捕获原始 4k 图像。我想每 5 秒捕获一帧并将其存储为 .png 文件,稍后我将通过我的神经网络运行以进行检测。我知道以原始格式 (.mkv) 录制 4k 视频的命令。但是,我无法以 3840x2160 分辨率捕获单个图像(帧)。
有一个示例命令是
上面的命令有效,但它只存储在大小约为 1mb 的 jpg 中。这不是很清楚,我想要一个更详细的 png 格式。我尝试更改文件名中的扩展名,但它不起作用。我正在使用jetson xavier nx。
编辑 我尝试使用以下命令更改编码
但是我收到以下错误
python - 如何在 gstreamer 中使用 udpsink 在 jetson xavier 中流式传输 4k 视频
我正在使用jetson xavier NX,并且已将4k相机连接到它。我想使用 gstreamer 和 RTP 流式传输 4k 视频,并将流式视频数据作为 mkv 文件存储在另一个 jetson 上。但是,我的数据被压缩了很多,即使相机和 gstreamer 支持 4k,我也无法以 4k 发送它。
我尝试在发送方将分辨率更改为 3840x2160,但似乎没有用。我究竟做错了什么
nvidia-jetson - 使用没有检测的 DeepStream 跟踪器
我正在尝试先使用 Deepstream 跟踪器(KTL、IOU、NvDCF),然后再不检测。
我似乎找不到如何使用 Deepstream 跟踪器的正确指南,并且在使用提供的使用其中一个跟踪器的示例示例时,它们似乎不起作用,跟踪器没有被初始化,也许我已经开始了错误,但它不会进入跟踪 if 语句。
如果有人知道如何使用 deepstream 跟踪器,并且可以在不跟踪的情况下做到这一点(例如,仅从鼠标选择中插入 bbox),我将不胜感激
nvidia-jetson - 使用普通wifi远程xavier
我有点困惑eth0
,wlan
xavier 现在正在使用端口。
这是我时的端口分配ifconfig
:
我已经配置了 vnc 服务器并重新启动了 xavier ubuntu。
在我的笔记本电脑(远程客户端)上,如果我连接到普通 wifi,则 vnc 查看器拒绝连接到 vnc 服务器。
如果笔记本电脑客户端连接到,jetson wifi 10.42.x.x
那么我可以远程 xavier。然而,这不是我想要的。
我希望在连接到时能够访问 xavierhome wifi 192.168.x.x
如何使它起作用?