问题标签 [tegra]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ubuntu - 运行静态链接应用程序时 libc 中的 Segfault
我正在尝试在 ubuntu tegra (ARM) 板上运行静态链接的 hello world 程序,但 libc 中的一个函数似乎给出了分段错误。
当动态链接时,没有任何问题。
更多细节:
有关如何解决此问题的任何指示?谢谢!
c++ - Opencv4Tegra 性能问题
我正在尝试使用 opencv在Jetson TK上创建一个实时全景视频拼接应用程序。我在上面测试了opencv的示例stitching_detailed.cpp,并比较了使用和不使用GPU的结果。我拼接了 30张 1240x720 的图像,使用 GPU 大约需要 33 秒,使用 CPU 大约需要 45 秒。即使是严格的 GPU 结果也更快,但它们远非实时。我的目标是用 30 FPS 拼接 1240x720。我应该采取哪些步骤来使用 GPU 来提高 opencv 的性能。我的opencv版本是2.4.12 Opencv4Tegra
android - OpenCV 在 Android 应用程序中短时间后崩溃
我有一个应用程序可以执行一些图像拼接并使用 OpenCV。它曾经可以工作,但突然之间它总是崩溃(随机?)。我不知道为什么会发生这种情况,我没有更改代码,但也有好几个星期没有尝试该功能了。与此同时,我的 Nvidia Shield 上可能有一个 Android 更新。
它曾经与 OpenCV 2.4.10 一起使用,但由于它不再与该版本一起使用,我尝试切换到显示相同行为的 OpenCV 3.0.0。
我的设置:
- Nvidia Shield 与 Android 5.1.1
- 安装
OpenCV_3.0.0_manager_3.00_armeabi-v7a.apk
管理器 - 构建目标是 Android 5.1.1
- 将 Android SDK 中的 OpenCV 3.0 库集成到我的 Android 项目中。在 SDK 内部,这是库的路径:
%path-to-sdk%/OpenCV3-android-sdk/sdk/java
我的应用程序的行为如下:它似乎成功加载和初始化 OpenCV,甚至开始捕获和拼接一些图像。三四张图片后,它崩溃了。以下是崩溃期间记录的 Android 日志:
这种行为的原因可能是什么?
难道是我在配置过程中遗漏了什么?(可能是关于 OpenCV 管理器的事情?)
有什么想法可以缩小错误范围吗?
更新:
我仍然无法找出 Nvidia Shield 上的问题。它只是在 OpenCV 内部的某个地方崩溃。在 2 个不同的 Nvidia Shield 设备上测试 => 两者都崩溃。相同的构建 + 相同的配置在具有相同 GPU (Nvidia K1) 的 Google Nexus 9 上运行而不会崩溃。疯狂的时代!
linux - 具有匹配 vermagic 值的无效模块格式
我在 Jetson tk1 上的一个用于 Linux 4 tegra 的内核模块有问题。我正在尝试将相机驱动程序集成到内核中
我正在尝试将一个模块插入内核,并且我已经在目标机器上编译了所有内容。这是内核模块的modinfo。
uname -r 命令输出:
当我运行 sudo insmod mymodule.ko 时,我仍然得到这个输出
我尝试查看 dmesg/syslog/kern 日志文件,但没有关于我的模块插入失败的原因的信息。我还查看了其他线程,它通常说要验证模块是使用正确的头文件编译的。据我了解,“vermagic”和“uname -r”是否相似,我假设版本是正确的(我可能对此非常错误)。
我的想法不多了,我想知道我是否错过了什么。
干杯。
makefile - 使用 Travis CI 构建 Linux 内核
如何在 Travis CI 中构建 Linux 内核。我已添加script: make menuconfig
到我的 Travis 配置中,但它不起作用并说
我怎样才能解决这个问题?
链接到 GitHub 存储库:https ://github.com/ProjectPolyester/tegra_kernel并尽可能在 PR 中提交修复
c++ - 将 gperftools 与 Jetson TX1 开发套件一起使用
我被推荐使用 gperftools 来简单快速地分析我的代码。此外,-lprofiler 的集成已经在我得到的代码的 CMAKE 中完成。现在我将源代码迁移到 Jetson TX1 并且运行良好,我尝试使用 gperftools。
不幸的是,当我使用 perftools 启动程序时,分段错误开始出现
我已经阅读了文档,他们谈到了在 64 位 Linux 上使用正确的 libunwind。不幸的是,给定的库(0.99 libunwind,http://download.savannah.gnu.org/releases/libunwind/libunwind-0.99-beta.tar.gz)似乎不喜欢 Tegra 平台。
首先,config.guess 有一个问题,我必须用位于 /usr/share/automake*/ 中的那个进行更改。
然后它会像这样出错:
我尝试使用主树,因为他们添加了 AARCH64(出现在错误消息中),但随后我收到其他消息:
- 任何人都能够在 Tegra Dev Kit 或类似平台上使用 gperftools 吗?
- libunwind 是段错误问题的一部分吗?代码再次在没有 -lprofiler 和 CPUPROFILER 的情况下工作。
c++ - -mimplicit-it 编译器标志无法识别
我正在尝试为 Tegra TK1 编译 C++ 库。该库链接到 TBB,我使用包管理器提取了它。在编译期间我收到以下错误
谷歌搜索了一下,这个问题让我尝试添加-mimplicit-it=thumb
到 CMAKE_CXX_FLAGS,但编译器无法识别它。
我正在使用内核 3.10.40-grinch-21.3.4 在 tegra 上编译,并使用 gcc 4.8.4 编译器(这就是我键入 c++ -v 时返回的内容)
我不确定最初的错误消息是什么意思,尽管我认为它与 TBB 链接库而不是我正在编译的源有关。修复的问题也很神秘。任何人都可以对此有所了解吗?
opencv - tegra(Jetson TK1)的opencv是否在下面使用npp和openvx?
随 Linux 4 Tegra 提供的用于 Tegra 设备的 OpenCv 是否在下面使用 NPP 和 OpenVX?还是我必须自己进行此类优化?
任何对指向证明的链接的引用将不胜感激。
linux - 硬件 ISP 和 v4l2
我是 Linux 新手。
我的疑问是关于支持 Jetson TX1 中现有 ISP 硬件的 v4l2 驱动程序。
我想知道 Linux 中的基本 v4l2 实现是否提供了向 ISP(硬件模块)发送数据的接口?
如果未提供,是否可以修改 v4l2 实现使其不绕过 ISP。
而且,我想知道,数据如何通过 v4l2 从图像传感器流到系统内存(如果可能的话,我可以获得表示此数据流的框图的源)
请帮我...