问题标签 [tesla]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
cuda - CUDA Fermi 的架构:内存结构
我有一个关于 CUDA Fermi 架构的问题:我在某处读到 Fermi 架构中全局内存的访问速度就像共享内存一样快,只是因为现在它们使用统一寻址。
因此,我确实可以访问全局内存上的数据而没有(大)延迟(与“pre-Fermi”GPU 不同)?
知道这一点对我来说非常重要,因为我正在为没有它的 Nvidia Tesla GPU 编写代码(它在大学的实验室里,我在夏天无法访问它......)
windows - 我需要在 64 位机器上安装 64 位 SDK
我的实验室刚收到 Tesla C2070,该卡安装在运行 Windows Server 64 位的机器上。我应该写一些cuda模拟。我需要安装 64 位版本的 SDK 和 CUDA 工具包吗?我问的原因是因为我想使用 Visual c++ express 进行编译,而且它们似乎真的是面向 32 位的。还是有另一个编译器可以让我完全摆脱这种限制?
谢谢。
编辑 1 感谢您的回答。到目前为止,我可以编译 32 位 cuda / openCL 代码。安装 SDK 后,将目标更改为 64 并链接到 64b 库,它仍然无法正常工作。
最后,在谈到 gpgpu 模拟时,是否需要编译为 64 位应用程序?我的意思是在主机上运行的代码几乎什么都没有,而在 gpu 上运行的代码很好,它是由 nvcc 编译的,所以我选择什么并不重要,32 还是 64 ......我错了吗(可能)?
cuda - 禁用对 Tesla C2070 和 Ubuntu 12.04 的 ECC 支持
我有一个运行 Ubuntu 12.04 服务器的无头工作站,最近安装了新的 Tesla C2070 卡,但是从 CUDA SDK 运行示例时,我收到以下错误:
实际上,除了“deviceQuery”之外的所有其他示例都会发生此错误。
我正在使用内核 3.2.0、nvidia 驱动程序 295.41 和 Cuda 4.2.9。
经过大量搜索后,找到了禁用 ecc 支持的建议:
这有效。但问题是禁用 ecc 支持的 GPU 计算的可靠性如何?
任何意见、建议或解决方案将不胜感激。
-康斯坦丁
memory - geforce 卡是否支持 cudaMemcpy3DPeer?
是否可以在 GeForce 卡上使用点对点内存传输,还是只允许在 Teslas 上使用?我假设卡是 2 个 GTX690(每个都有两个 GPU)。
我曾尝试在 Quadro 4000 和 Quadro 600 之间进行复制,但失败了。cudaMemcpy3DPeer
我通过填充cudaMemcpy3DPeerParms
结构来传输 3D 数组。
cuda - NVIDIA Tesla 和 CUDA 到底是什么?
我正在对 GPGPU 进行一些研究,目前正在努力解决特斯拉和 CUDA 到底是什么的问题。在论文“NVIDIA Tesla:统一的图形和计算架构”中,它说 Tesla 架构是在 GeForce 8800 中引入的。通过进一步阅读,我确信它是 NVIDIA 显卡的整体架构。不幸的是,事实并非如此。在http://www.nvidia.com/object/why-choose-tesla.html上,他们明确区分了 GeForce、Quadro 和 Tesla。这一切与 CUDA 有什么关系?它只是 Cuda-C 硬件支持的 GPU 上一般计算的扩展吗?SM、SIMT、线程同步、共享内存、Warp 等的概念与它有什么关系?库达?特斯拉?此外http://nvidia.custhelp.com/app/answers/detail/a_id/2133/~/what-is-the-difference-between-tesla-and-cuda%3F提到特斯拉是为高性能计算和 CUDA 只是软件。有人可以澄清一下吗?
cuda - Tesla C2075 上的 cudaMemcpy 太慢了
我目前正在使用具有 2 个支持 cuda 的 GPU 的服务器:Quadro 400 和 Tesla C2075。我做了一个简单的向量加法测试程序。我的问题是,虽然 Tesla C2075 GPU 应该比 Quadro 400 更强大,但完成这项工作需要更多时间。我发现 cudaMemcpy 占用了大部分执行时间,并且在功能更强大的 gpu 上运行速度较慢。这是来源:
输出是:
我的问题是:
- 我应该根据要使用的 GPU 修改代码吗?
- 代码中指定的块数、每个块的线程数与 GPU 上可用的多处理器数、每个多处理器的内核数之间是否存在任何联系?
我正在运行 Linux Open Suse 11.2。源代码使用 nvcc 编译器(4.2 版)编译。
谢谢你的帮助!
windows-server-2008 - 特斯拉 GPU 使用情况
在我的机器中连接了三个 GPU。即 Tesla M2090。我想了解这些 GPU 的使用情况。有一个名为 NVIDIA SMI 的工具可以显示 GPU 的使用情况。但是当我尝试运行 Option nvidia-smi.exe -d 时(我想知道内存和 GPU 利用率)。请帮忙
驱动程序版本:275.65 操作系统:Windows Server 2008 R2
matlab - CUDA 驱动程序对于 Matlab GPU 来说太旧了?
好的,这是有问题的。我最近在运行 RHEL 5 的 x86_64 Linux 系统上安装了 Matlab R2013a,连接到 Tesla S2050。我从来没有在 Matlab 本身中使用过 GPU 功能(但已经尝试过使用 Jacket 中的一些功能,它可以让一个在 Matlab 中编程 GPU)。
特斯拉在所有驱动程序上运行良好,安装了 CUDA(Jacket v1.8.2 运行良好,没有任何抱怨)。
** 驱动程序版本:270.41.34(2011 年的最后一个版本,支持 S2050) ** CUDA:v5.0.35 nvcc -V:Cuda 编译工具,版本 5.0,V0.2.1221
但是 Matlab r2013a 抱怨:
gpuDevice 错误: 原因:找到了 CUDA 驱动程序,但它太旧了。您系统上的 CUDA 驱动程序支持 CUDA 版本 4。所需的 CUDA 版本为 5 或更高版本。
现在,我了解了 Matlab 的驱动程序版本有问题的错误。但是,我已经安装了最新的 CUDA 工具包和 nVidia 必须为我拥有的 Tesla S2050 提供的最新驱动程序。
是否有适用于该 Tesla 的更高驱动程序版本(我下载了最新的驱动程序,并且在尝试安装时,它只是抱怨我没有兼容的 nVidia 硬件)。
我如何告诉 Matlab 考虑相关的 CUDA ?(在哪里设置 PATH、CUDA_PATH 等,如果有的话?)我需要执行其他检查来评估附加特斯拉的工作吗?
提前感谢您的帮助。
cuda - Tesla GPU 中的事件采样
我正在尝试使用 CUDA 中的 CUPTI 库来读取一些性能计数器,例如执行的指令、内存访问等。执行 CUPTI 安装提供的示例时 (/usr/local/cuda-5.0/extras/CUPTI/sample/event_sampling)它显示“ Tesla 系列设备不支持事件采样”。(我使用的是 GTS 250)。这是否意味着我在应用程序执行期间无法读取计数器,还是其他原因?
谢谢
cuda - 无法运行查询 NVML 的 CUDA 代码 - 有关 libnvidia-ml.so 的错误
最近有同事需要使用NVML查询设备信息,于是下载了Tesla开发包3.304.5,将文件nvml.h复制到/usr/include。为了测试,我在 tdk_3.304.5/nvml/example 中编译了示例代码,它运行良好。
一个周末,系统发生了一些变化(我无法确定发生了什么变化,而且我不是唯一可以访问机器的人),现在任何使用 nvml.h 的代码(例如示例代码)都失败并出现以下错误:
但是,我仍然可以运行 nvidia-smi 并读取有关我的 K20m 状态的信息,据我所知,nvidia-smi 只是对 nvml.h 的一组调用。我收到的错误消息有点神秘,但我相信它告诉我 nvidia-ml.so 文件需要与我在系统上安装的 Tesla 驱动程序相匹配。为了确保一切正确,我重新下载了 CUDA 5.0 并安装了驱动程序、CUDA 运行时和测试文件。我确信 nvidia-ml.so 文件与驱动程序匹配(两者都是 304.54),所以我很困惑可能出了什么问题。我可以使用 nvcc 编译和运行测试代码,也可以运行我自己的 CUDA 代码,只要它不包含 nvml.h。
有没有人遇到过这个错误或者有任何关于纠正这个问题的想法?
编辑:解决方案是删除所有额外的 libnvidia-ml.so 实例。出于某种原因,他们有很多。