问题标签 [tegra]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
haskell - 在 Nvidia Jetson TK1(ARM 架构)上安装 haskell 平台
在 Jetson TK1 上跑步lsb_release -s -d
给了我Ubuntu 14.04 LTS
所以我尝试了sudo apt-get install haskell-platform
,sudo apt-get install ghc
并且两者都出现了一个错误,它无法找到包裹。因此,我启用了 Universe 存储库,正如我在 stackoverflow 帖子中看到的那样,为 ubuntu 14.04 安装 haskell 平台。我仍然得到相同的结果。
我看到有些人提到在树莓派上轻松安装 haskell 平台,并且 GHC 现在对 ARM 有很好的支持,但我看不到让安装在 Jetson TK1 上运行的方法。我的下一个选择是从源代码构建,我在 GHC 或 Haskell 平台网站上看不到 ARM 架构的源代码。
我知道还有交叉编译,当我看到没有更简单的方法时,我会开始搞砸。
android - Android Renderscript 显示损坏的缓冲区
我正在开发一个简单的 Renderscript 应用程序来进行基本的图像处理。它在我的 Nexus 5 上运行良好,但在我的 Shield 平板电脑上运行良好。我有一个与 SurfaceView 大小相同的分配(RGB8888),用法是 Allocation.USAGE_SCRIPT。我有另一个完全相同规格的分配,除了用法是 Allocation.USAGE_SCRIPT | 分配.USAGE_IO_OUTPUT。我的 Renderscript 已被缩减到最低限度(出于显而易见的原因删除了包名称):
如您所见,它所做的只是将数据从一个分配复制到另一个分配。然后我在绑定到 Surface 的输出分配上调用 iosend()。这会在我的 Nexus 5 上显示图像,但会导致Shield 上的屏幕损坏 ( Image )。腐败的性质让我相信,我不知何故进入了我不应该进入的记忆。
真正令人不安的是,将输入分配复制到位图,将位图复制到输出分配,然后在输出分配上调用 iosend() 在两个平台上都可以正常工作,但完全破坏了我在Tegra K1 的 GPU。
nvidia - Tegra K1 是否支持 GPU 上的 RenderScript?
Tegra K1 是否支持 GPU 上的 RenderScript?我使用 Mipad 并编写了一个示例 RS 内核并运行它,但 cpu 使用率平均可以达到 95%。内核是这样的:
分配的标志是这样的:RS_ALLOCATION_USAGE_SHARED | RS_ALLOCATION_USAGE_SCRIPT,
官方pdf说Tegra K1 GPU支持RS,我不知道我错在哪里。
谢谢
android - tegra android开发包在安装期间下载错误windows 8.1(64位)
版本相同的错误
- tadp-3.0r3-windows
- tadp-3.0r2-windows
- tadp-2.0r8-windows
TADP (Tegra Android Development Pack)
安装程序是从官方网站完美下载的。
在安装过程中,安装程序会下载文件,在这种情况下无法完成下载安装TADP
.
下载停止236MB
并在 10 次尝试重新连接和下载时失败。
然后我收到以下错误:
c++ - 如何在自定义 xy 位置上启动 gst-launch
我正在嵌入式 Linux 上开发一个 C++ 应用程序,我需要在其中显示来自摄像头的视频。我使用 gstreamer 创建了一个窗口并使用以下命令开始视频捕获(因为它在 tegra 上有硬件支持):
设备上的主应用程序是全屏运行的,所以我需要将这个窗口定位在屏幕上的特定位置,让用户感觉它都在同一个“窗口”中运行。我已经设法做到这一点:
我面临的问题是 gst-launch 首先显示在 0, 0 坐标上(因为它是从命令行运行的),然后在应用程序中的正确位置(以编程方式)“捕捉”。我通过运行 XQueryTree 来搜索所有显示的窗口并使用 gst-launch 找到一个然后移动它来做到这一点。这需要一些时间并且看起来不太好,所以我正在寻找更好的解决方案。
我尝试在 gst-launch 管道中使用 videobox 将视频定位在屏幕上,但问题是它从 0、0 到视频窗口绘制了一个黑色边框(border-alpha=0 应该可以解决这个问题,但是它没有 - 我认为问题出在 nvvidconv 或 nvxvimagesink 的某个地方,但我无法知道):
第二种解决方案是我将我的主应用程序窗口设置为始终在顶部,找到视频窗口后,将其移动到位置,然后将主应用程序设置回正常并将视频窗口移动到顶部。我已经尝试了两种我在这里找到的方法来设置总是在最上面,但都没有奏效。第一的:
第二:
我不知道为什么这不能正常工作。
问题是如何从控制台命令定位窗口,或者在窗口显示之前以编程方式截取窗口并设置正确的坐标,或者以某种方式让我的应用程序始终位于顶部,这样我就可以摆脱捕捉效果?
欢迎任何其他建议。
linux - Jetson TK1 启动问题
昨天收到了我的 Jetson TK1。拆箱并配置 Linux GUI 后,使用连接到其 USB 3.0 端口的鼠标(无线)重新启动设备,将其带到某种命令行页面,它可能会加载一些文件,然后屏幕开始打印“[.]” . 直到我在没有任何 USB 外围设备的情况下重新启动电路板,然后设备启动到正常的 Linux GUI 之前,什么都没有发生。无法弄清楚我的板出了什么问题以及为什么它不能正常工作。(我是 LINUX 的新手)
PS:打开设备后通过HDMI连接显示器没有视觉输出,只是一个空白屏幕。即使屏幕运行空白,是否可以通过网络适配器连接设备以进行远程访问?
linux - 在 Tegra TK1 上使用 malloc() 与 cudaHostAlloc() 分配的数据的 CPU 内存访问延迟
我正在执行一个简单的测试,比较使用 malloc() 分配的数据和使用 cudaHostAlloc() 从主机分配的数据的访问延迟(cpu 正在执行访问)。我注意到在 Jetson Tk1 上访问用 cudaHostAlloc() 分配的数据比访问用 malloc() 分配的数据要慢得多。
这不是独立 GPU 的情况,似乎只适用于 TK1。经过一番调查,我发现使用 cudaHostAlloc() 分配的数据被内存映射 (mmap) 到进程地址空间的 /dev/nvmap 区域。对于映射在进程堆上的正常 malloc 数据,情况并非如此。我知道这种映射可能是允许 GPU 访问数据所必需的,因为 cudaHostAlloc 的数据必须从主机和设备都可见。
我的问题如下:从主机访问 cudaHostAlloc 数据的开销来自哪里?映射到 /dev/nvmap 的数据是否未在 CPU 缓存中缓存?
android - Tegra 设备上近物体的低帧率
我正在开发一个在 Android 上使用 OpenGL ES2 的小游戏。
该游戏在许多设备上以 60FPS 的速度运行,目前只有一个设备:Wiko Highway 4G(配备 Tegra 4i 处理器的强大智能手机)。
所以,我下载了“NVidia Tegra Android Development Pack”来寻找瓶颈。这些工具告诉我,我的游戏在处理器上占用了大约 40%,所以我不明白为什么帧率这么低(20-25 FPS)。
通过一些测试,我看到我有 20FPS。我尝试过使用较小的场景(一个没有纹理或效果的盒子):结果相同。
终于,两天后我有了一点想法,但我不明白如何解决它:当物体很远时,帧率还可以,当相机靠近时,帧率变慢。所以,我认为屏幕上绘制的像素数是有问题的(他的分辨率是 1920×1080)。
问题应该来自哪里?我已经在这个问题上失去了三天:/
我在用着:
- 安卓 NDK R10D
- OpenGL ES2
- 自定义引擎
- 我尝试过以下设备:Nexus 4 (ARM)、iPad 2 (PowerVR)、Nexus 7 (ARM)、iPhone 6 (PowerVR)、Samsung Galaxy S2(以及 Wiko 高速公路 4G,唯一一款帧速率较慢的设备,以及我认为的最新设备)
nvidia - 计算 Nvidia GPU 的理论性能的公式是什么?
您如何从 GPU 获得最大数量的浮点操作(以 flops 为单位)?
例如,在 GK20A GPU(嵌入在 Tegra K1 中)上,它可以达到 852 Mhz 并具有 192 个 cuda 内核(每个周期每个周期只能执行一个基本的 fp 操作 - 如果我正确阅读了规范)并且可以去高达 852 Mhz,我的第一个猜测基本上是:852 * 192 = 163 GFLOPS。
然而,Nvidia 为 Tegra K1 拥有至少380 GFLOPS。我错过了什么?
opencl - 如何让 OpenCL 在 NVIDIA JETSON TK1 上运行
我是韩国的研究生。最近,我开始研究 OpenCL 和 NVIDIA JETSON TK1。
NVIDIA JETSON K1 可以运行 CUDA 程序,所以这是我的问题:我想在 NVIDIA JETSON 上执行 OpenCL 内核,但是编译一个简单的例子,给我一个错误消息"CL/cl.h" header no such file or directory
。
那么,我应该如何在 NVIDIA JETSON TK1 上编译和执行 OpenCL 内核呢?