问题标签 [nvidia-jetson-nano]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
c - Jetson Nano 温度 C
我对在jetson nano上运行的这段代码有几个问题:
在这里,我必须打开,获取温度,然后在每次循环迭代时关闭文件以获得有效数据(并且不要出现段错误)。我关心的是执行此操作所需的(昂贵的)内核开关的数量。
我知道过早的优化是邪恶的,但是还有另一种方法(或者可能是正确的方法)可以做到这一点,只打开一次文件?
如果我打开它,为什么传感器接口(文件)不能自我更新?
PS:是的,我知道,我没有释放 cpu 或 gpu 变量,这只是“演示”代码(看看我如何测量经过的时间,哈哈)
out-of-memory - 从小型 CNN 和小型数据集中获取“GpuMemory 中的 OutOfMemory 错误:0”
我的目标是使用 Tensorflow 在 MNIST 上训练一个非常简单的 CNN,将其转换为 TensorRT,并使用它使用 TensorRT 在 MNIST 测试集上执行推理,这一切都在 Jetson Nano 上,但我收到了一些错误和警告,包括“ GpuMemory 中的 OutOfMemory 错误:0”。为了尝试减少内存占用,我还尝试创建一个脚本,在该脚本中我只需加载 TensorRT 模型(已在之前的脚本中转换并保存)并使用它对 MNIST 测试集的一小部分(100浮点值),但我仍然遇到同样的内存不足错误。包含 TensorRT 模型的整个目录只有 488 KB,100 个测试点不能占用太多内存,所以我很困惑为什么 GPU 内存快用完了。这可能是什么原因,我该如何解决?
另一件看起来可疑的事情是,一些 Tensorflow 日志信息消息被多次打印,例如“成功打开动态库 libcudart”、“成功打开动态库 libcublas”、“ARM64 不支持 NUMA - 返回 NUMA 节点零”。这可能是什么原因(EG动态库被一遍又一遍地打开),这可能与GPU内存不断耗尽的原因有关吗?
下面显示的是 2 个 Python 脚本;每个控制台的输出都太长,无法在 Stack Overflow 上发布,但可以看到它们附在这个 Gist 上:https ://gist.github.com/jakelevi1996/8a86f2c2257001afc939343891ee5de7
pytorch - 在 NVIDIA Jetson Nano 开发者工具包上构建 pytorch
我正在开发 Jetson Nano,并尝试在其上安装 pytorch 1.4.0 以运行一些玩具实验。
但是,我遇到了很多麻烦。在未能利用预建轮子后,我从头开始构建,但几个小时后,它失败并出现以下错误。
有谁知道如何解释这个?我的内存/交换空间用完了吗?
此外,如果有人知道在我的 nano 上获取 pytorch>=1.1.0 的更简单方法,任何提示将不胜感激:)
我在这里关注这个线程进行预建安装和临时安装:https ://forums.developer.nvidia.com/t/pytorch-for-jetson-nano-version-1-5-0-now-available/72048
yolo - 为什么 Yolo 在 xavier 中运行缓慢?
我有一些设备 {raspberryPi 3b、3b+、4b、Jetson nano、jetson Xavier AGX}
许多设备都尝试过视频识别。
然后,在 nano 和 xavier 上识别图像时,我发现 yolo 在 xavier 中的工作非常缓慢。
nano 和 xavier 的识别性能相似。
甚至识别时间。
来自https://github.com/alexeyab/darknet权重文件的源代码 是使用网络摄像头的 yolov3-tiny。输入图像是 fhd 大小。
fps 非常相似,约为 1.7。
https://github.com/alexeyab/darknet/Makefile是
当然,jetson inference 和 deepstream yolo 表现不错。Xavier FPS 约为 48FPS。
也许暗网没有针对 xavier 进行优化。
protocol-buffers - 无法将 ONNX 模型解析为 TensorRT
我正在使用jetson nano
我试图转换 onnx 模型https://github.com/onnx/models/tree/master/vision/body_analysis/emotion_ferplus
遇到这个错误:
https://user-images.githubusercontent.com/28679735/86281506-a75e5380-bbab-11ea-8608-9bf8e2f50cc6.png
附加信息:
https://user-images.githubusercontent.com/28679735/86281617-d674c500-bbab-11ea-8bbe-16f6d3db7203.png
video-streaming - jetson nano 可以同时处理多少个 IP 摄像机视频源以进行物体检测
Jetson Nano 可以同时处理多少个传入视频源以进行人数统计和物体检测。假设我有 4 个 IP 摄像头,2 个摄像头供稿,我需要进行对象检测,另外 2 个我想统计人数。我需要 4 个 Jetson nano 还是可以使用 1 个板来处理所有 4 个馈送。
python-3.x - 如何使 CSI 摄像机的 cv2.videoCapture 运行得更快
我在 Nvidia Jetson Nano 板上运行 CSI 相机。相机流是通过 GStreamer 完成的。一切正常,但我想减少打开 GStreamer 频道的时间。打开 GStreamer 频道 (cv2.VideoCapture(cam)) 需要超过 1 秒。我可以降低分辨率,但我想以最高分辨率捕获图像。这是片段
经过时间 1.0194542407989502
有什么办法可以减少这个时间吗?
python - 在 jetson nano 上的 python 中使用网络摄像头麦克风
我想在我的 jetson nano 上使用我的罗技 c525 网络摄像头中的麦克风进行语音识别。我可以检测到麦克风,并且似乎可以在声音应用程序中使用。但是我在使用 python 代码时找不到它。我已经尝试过 gstreamer,这只是制作了一个高音噪音的 mp4 文件,持续时间比我录制的时间长。我也尝试过使用 pyaudio 的 Speech_recognition 模块。Speech_recognition.Microphone() 应该连接到麦克风输入的地方,在这里我没有得到任何响应。
任何输入或提示将不胜感激