问题标签 [nvidia-jetson-nano]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - 为多个虚拟环境使用预安装的 Opencv
我正在使用带有 Jetson Nano 的Jetpack 4.3 (Nvidia Jetson 卡的操作系统映像)。其中预装了 OpenCV 4.1.1。
我想在多个虚拟环境中工作,但我不想在我创建的每个虚拟环境中安装(从源代码)OpenCV。
所以由于 OpenCV 是预先安装在虚拟环境之外的,是否可以使用它在我创建的每个虚拟环境中?
如果是这样,我如何将 OpenCV 安装链接到虚拟环境?
附加信息:
返回:
python - 如何将用 bgr8 编码的 ndarray 中的图像数据转换为 python 中的 jpeg 图像?
我正在尝试使用 jetcam.csi_camera 库使用 jetson nano 上的 csi 相机捕获图像。库中的 read 方法返回一个 n 维数组并使用 bgr8 编码。我想将其转换为 PIL 中的图像对象。我该如何使用PIL.Image.fromarray()
来实现这一目标?我试过了,但是 fromarray() 使用 rgb 模式,我的图像的蓝色和红色通道互换了。请原谅我,如果问题不清楚,请询问。先感谢您:)
python-3.x - 如何在 Jetson Nano 上使用我自己的 .pb 模型而不是 ssh-mobilenet-v2?
伙计们,我有一个问题。我可以在我的 Jetson Nano 上运行对象检测 python 示例。在这种情况下为“ssh-mobilenet-v2”。它工作正常......我还训练了我自己的数据集并有一个 .pb 文件。如何使用它而不是“ssh-mobilenet-v2”?
谢谢
deep-learning - Jetson nano 上 TensorRt 模型(pytorch->onnx->TensorRT)的准确性降低
我在 jetson nano 上推断 TensorRt 模型。它是从 pytorch 通过 onnx 转换而来的。在推理时,TensorRt 模型的准确率急剧下降。它是一种对象检测类型的模型。
python - 如何使用 trt.TrtGraphConverterV2 (或其他建议)将 tensorflow 模型转换为 TensorRT 优化模型?
我遇到了关于 TensorRT 和 Tensorflow 的问题。我正在使用 NVIDIA jetson nano,并尝试将简单的 Tensorflow 模型转换为 TensorRT 优化模型。我正在使用 tensorflow 2.1.0 和 python 3.6.9。我尝试使用NVIDIA-guide中的 t.his 代码示例:
为了测试这一点,我从 tensorflow 网站上举了一个简单的例子。要将模型转换为 TensorRT 模型,我将模型保存为“savedModel”并将其加载到 trt.TrtGraphConverterV2 函数中:
当我运行此代码时,它会保存 trt 优化模型,但无法使用该模型。例如,当我加载模型并尝试 model.summary() 时,它会告诉我:
这是转换器脚本的完整输出:
python-3.x - 在jetson nano上启动系统时自动运行python脚本
当系统在jetson nano上启动时,如何自动运行我制作的python脚本?
python-3.x - ImportError:/usr/lib/aarch64-linux-gnu/libgomp.so.1:无法在静态 TLS 块中分配内存
我试图找出我在我的 Jetson Nano 上安装的某些东西的哪个版本。所以我写了几行代码并使用终端在python3中运行它。
并通过执行图片中显示的错误发生。在另一个主题中,我发现您可以通过更改导入顺序来避免一些错误。这对我有用,但显然有些东西不能正常工作。
如果有一个包含多行代码的程序,这可能会成为一个大问题。我无法想象始终可以通过更改导入顺序来修复此错误。
有没有办法防止这个错误?
ImportError:/usr/lib/aarch64-linux-gnu/libgomp.so.1:无法在静态 TLS 块中分配内存
有人有很好的建议,可以提供帮助。
谢谢。克里斯
pycuda - 工作线程中的 TensorRT 执行上下文无法正常工作或导致崩溃
我构建了这个线程类来使用 TensorRT 运行推理:
运行上面的代码时,我得到错误:stream = cuda.Stream() pycuda._driver.LogicError: explicit_context_dependent failed: invalid device context - no currently active context?
这个函数在上面cuda.Stream()
被调用。allocate_buffers
所以我然后尝试下面的run
(注意这是上面注释掉的代码):
这会导致我的系统在调用rt_run
's时完全冻结。create_execution_context
我猜在创建 PyCuda 上下文和创建 TensorRT 执行上下文之间存在冲突?我在 Jetson Nano 上运行它。
如果我删除create_execution_context
代码,我可以分配缓冲区,并且似乎上下文处于活动状态并在工作线程中找到。但是,如果没有 TensorRT执行上下文,我就无法运行推理。execute_async
不是self.ctx
上面的方法。
请注意,从主线程运行时不会出现这些问题。我可以使用 PyCuda 的 autoinit 并像上面的代码一样创建一个执行上下文。
所以总而言之,在工作线程中,除非我调用,否则我无法分配缓冲区,self.dev.make_context
但这会导致create_execution_context
调用崩溃系统。如果我不调用self.dev.make_context
,我将无法在执行上下文中分配缓冲区,因为invalid device context
调用时cuda.Stream()
出现错误allocate buffers
。
我正在运行的内容:
- 张量RT 6
- PyCuda 1.2
- 杰森纳米 2019 (A02)
opencv - 在 Jetson Nano 上安装 OpenCV 4.1.2 时出现问题。导入 cv2,没有名为“cv2”的模块
我从源代码安装了具有 CUDA 支持的 OpenCV 4.1.2。没有问题。并创建了一个从 OpenCV 安装目录到我的 virtualenv 的符号链接
我在导入 cv2 时遇到问题
我检查了站点包目录,我可以看到 cv2.so。我显然错过了一些东西。在我看来,这里的主要问题是我无法链接到我的 virtualenv,事实上我能够检查我的安装及其工作