问题标签 [jetson-xavier]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
linux-kernel - AGX jetson-Xavier 的 Linux 内核上的设备树 gpios
我使用的是 Xavier AGX,在启动时我在 dmesg 上发现了以下输出:
如何在设备树(tegra194-p2888-0000-a00.dtsi)中写成:
Dtc 解码 (/boot/dtb/tegra194-p2888-0001-p2822-0000.dtb) 给出:
我很困惑为什么两者的输出都设置为 HIGH ?是不是一低一高?PS:我对设备树不熟悉,请帮助我。
dockerfile - 创建 docker 构建时 Cmake 错误“CUDA 编译器标识未知”
我正在尝试在 Xavier 中创建一个 docker build。当我在没有 docker 的情况下运行我的代码时,它运行顺利,并且我得到了 CUDA 编译器标识。但是当我尝试使用 dockerfile 进行构建时,它给了我一个错误,即 CUDA 编译器标识未知。
以下是我的 dockerfile 步骤:
我在使用 cmake 的最后一步出错了。
我的 mvcc 版本是 release 10.0, V10.0.326。我的 cmake 版本是 3.10.2
谁能告诉我 Dockerfile 中缺少什么?
nvidia - 在 Jetson nano 和 jetson xavier 上运行 Nvidia-docker 以实现 tensorflow 等深度学习框架
我目前正在尝试在 Jetson Xavier 和 jetson nano 上运行 Nvidia-docker,并在内部启用了 Tensorflow 框架。但我现在面临的问题与“libcublas.so”有关。
我尝试过这里提到的解决方案:
所有软件包安装(pip 安装和 apt-get 安装)均已成功完成,但是当我尝试从 Python 2.7 或 3.6 导入 TensorFlow 时,出现以下错误:
ImportError:libcublas.so.10.0:无法打开共享对象文件:没有使用 Jetson Xavier 或 Jetson nano 的文件或目录?
python - 如何使用 python 访问已安装的 NVIDIA JETSON AGX XAVIER 网络摄像头?
我有一个NVIDIA JETSON AGX XAVIER。我已经安装了一个相机。我需要使用 python 通过我的笔记本电脑访问这台相机并捕获一些视频并将它们再次保存回我的笔记本电脑。我已经搜索了任何有助于解决这个问题的东西。但我一个也没找到。即使我在这个网站本身上也没有找到任何与我的问题相关的问题。
如果有人以前这样做过或者有人知道在哪里可以参考,请帮助我完成这项工作。
yolo - 为什么 Yolo 在 xavier 中运行缓慢?
我有一些设备 {raspberryPi 3b、3b+、4b、Jetson nano、jetson Xavier AGX}
许多设备都尝试过视频识别。
然后,在 nano 和 xavier 上识别图像时,我发现 yolo 在 xavier 中的工作非常缓慢。
nano 和 xavier 的识别性能相似。
甚至识别时间。
来自https://github.com/alexeyab/darknet权重文件的源代码 是使用网络摄像头的 yolov3-tiny。输入图像是 fhd 大小。
fps 非常相似,约为 1.7。
https://github.com/alexeyab/darknet/Makefile是
当然,jetson inference 和 deepstream yolo 表现不错。Xavier FPS 约为 48FPS。
也许暗网没有针对 xavier 进行优化。
tensorflow - 有没有办法为 nvidia jetson 板(AGX,TX2)交叉编译 tensorflow-2
我找到了使用 TX1 的 CUDA 支持编译 tensorflow-1.5 的指南,https: //jany.st/post/2018-02-05-cross-compiling-tensorflow-for-jetson-tx1-with-bazel.html
有没有办法对 tf-2 做同样的事情?我想在我的 AGX 板上安装一个 tf-2 的分支。
CROSSTOOL 文件在 tf-2 中已弃用(在第三方/gpus/crosstool 中找不到)
deep-learning - 自定义应用程序中的 DeepStream python 应用程序
在此链接中,我们可以访问 gstreamer 管道缓冲区并转换 numpy 数组中的帧缓冲区,我想知道,我如何访问 GPU 内存中的帧缓冲区,然后输入我的自定义处理器而不将帧转换为 numpy 数组。
我们有两种使用 deepstream 解码器的解决方案(比 opencv+gstreamer 更有效的方式):一种是我们需要编写处理的自定义元素并在 gstreamer 中注册,然后将自定义元素放入管道中,然后对帧缓冲区进行处理. 这种方式很好但需要编写和了解gstreamer编程。这种方式与深流相同。第二种方法是我们只使用来自该链接的帧解码,然后将帧传递到自定义处理器单元。对于这一部分,我有两个问题:
1- gstreamer 的循环与异步编程循环相同吗?
2-如您所知,如果我们在 pad prob 函数中添加额外的操作,这会导致性能下降,但我想知道,是否可以将帧放在 pad prob 函数中并执行loop.create_task(process(frame))像异步?这导致我们在这里不等待执行处理。像这样:
docker - Nvidia Jetson 上 Docker 和 Tensorflow 的 h5py 问题
我目前正在尝试构建一个 docker 容器,它应该能够在 Xavier AGX 之上运行 GPU 加速的 tensorflow。
我的方法源自示例和官方 nvidia 文档jetson-tensorflow。
我的 Dockerfile 看起来像这样:
但是,我收到了这些与 h5py 相关的错误:
添加时
在安装 h5py 之前,我成功并进入了安装 tensorflow 的阶段。
但是,然后 tensorflow 安装 h5py==2.10.0 再次出现错误:
Xavier 的 JetPack 版本是 4.4,l4t 版本是 32.4.2
任何帮助将不胜感激!
最好的问候多米尼克
nvidia - 尝试将其转换为 tensorrt 或 tflite 时出现内存问题
我成功地将 .weight 文件转换为 .tf 文件,然后我使用了 convert_trt.py 脚本,它确实在等待 2 分钟后被杀死。
我使用 Jetson Xavier nx,Cuda 10.2。
错误日志: