问题标签 [opencl]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
compiler-construction - 如何在 Mac OS X 10.6.3 上编译 Open CL?
我能够按照说明编译 CUDA 3.0,但无法在 Mac OS X 10.6.3 上编译与之配套的 OpenCL?
performance - 在显示 GPU 上使用 OpenCL 时如何确保 GUI 响应能力?
在我学习 OpenCL 的相对较短的时间内,我经常看到我的应用程序导致操作系统 UI 的响应速度明显降低(例如,窗口响应拖动需要几秒钟)。我在使用 NVidia GPU 的 Windows Vista 和 Mac OS X 上都遇到了这个问题。
在与显示器相同的 GPU 上使用 OpenCL 时,我该怎么做才能确保我的应用程序不会像这样显着降低 UI 响应能力?此外,是否可以在我的应用程序中不造成不必要的性能损失的情况下做到这一点?(即,如果用户没有执行一些 UI 密集型任务,那么我不希望我的应用程序运行得比现在慢。)
我知道任何答案都将是非常特定于平台的(其中平台包括 OS/GPU/驱动程序组合)。
opencl - 对 Nvidia GTX 295 的 OpenCL 支持
Linux 是否存在对 Nvidia GTX 295 的 OpenCL 支持,还是预计在不久的将来?
concurrency - OpenCL 是否允许并发写入相同的内存地址?
是否允许两个(或更多)不同的线程写入 OpenCL 全局空间中的同一内存位置?写入总是将 uchar 从 0 更改为 1,因此结果应该是可预测的,但是我的程序中的结果不稳定,所以我想知道原因是否可能是某些写入失败。
将缓冲区声明为只写并在之后将其复制到只读缓冲区是否有帮助?
scientific-computing - 什么样的工作受益于 OpenCL
首先:
- 我很清楚 OpenCL 不会神奇地让一切变得更快
- 我很清楚 OpenCL 有局限性
所以现在我的问题是,我习惯于使用编程进行不同的科学计算。我使用的一些东西在计算的复杂性和数量方面非常紧张。所以我想知道,也许我可以使用 OpenCL 加快速度。
所以,我很想听听你们对以下一些[链接奖励]的回答:
*什么样的计算/算法/一般问题适合OpenCL
*确定某些特定代码是否会因迁移到 OpenCL 而受益的一般准则是什么?
问候
cuda - 用于 GPU 编程的 DirectCompute 与 OpenCL?
我有一些(财务)任务应该很好地映射到 GPU 计算,但我不确定我应该使用 OpenCL 还是 DirectCompute。我做了一些 GPU 计算,但那是很久以前(3 年)。我是通过 OpenGL 完成的,因为当时没有任何替代方案。
我看过一些 OpenCL 演示,它看起来非常好。我还没有看到有关 DirectCompute 的任何信息,但我希望它也很好。
目前我对跨平台兼容性不感兴趣,此外,我希望这两个模型足够相似,不会在尝试从一个模型转换到另一个模型时引起大麻烦。
那么,你用过这两个中的任何一个吗?特别是 DirectCompute?它与 OpenCL(和 CUDA)相比如何?
c - OpenCL 用户定义的内联函数
是否可以在 OpenCL 代码中定义我自己的函数,以便内核可以调用它们?是的,我在哪里可以看到一些简单的例子?
opengl - OpenCL 或 OpenGL - 使用哪一个?
我的问题涉及黑白图像,中间有一个黑色区域。我以前从未使用过 OpenGL 或 OpenCL,所以我不知道该选择哪一个。我想在该区域上放一些白色圆圈,最后检查整个图像是否是白色的。我会尝试很多组合,所以我想使用 GPU,因为它的并行性。
我应该使用 OpenGL 并将圆创建为纹理并将其放在图像顶部,还是应该编写一些在矩阵中的像素/条目上工作的 OpenCL 内核?
opencl - OpenCL 中的矩阵求逆
我正在尝试使用 OpenCL 加速一些计算,并且部分算法包括反转矩阵。是否有任何开源库或免费可用的代码来计算用 OpenCL 或 CUDA 编写的矩阵或一般反演的 lu 分解(lapack dgetrf 和 dgetri)?该矩阵是实数方形,但除此之外没有任何其他特殊属性。到目前为止,我已经设法在 gpu 上找到了基本的 blas 矩阵向量操作实现。
矩阵相当小,只有大约 60-100 行和列,所以它可以在 cpu 上更快地计算,但它在算法的中间使用了,所以我必须将它传输到主机,计算逆,然后然后将结果传输回设备上,然后用于更大的计算。
python - 我可以只使用 Python 编程 Nvidia 的 CUDA 还是必须学习 C?
我想这个问题不言自明。我有兴趣做一些严肃的计算,但我不是一名程序员。我可以将足够多的 python 串在一起来完成我想要的。但是我可以在 python 中编写一个程序并让 GPU 使用 CUDA 执行它吗?还是我必须混合使用 python 和 C?
Klockner(sp)“pyCUDA”网页上的示例混合了 python 和 C,所以我不确定答案是什么。
如果有人想加入关于 Opencl 的意见,请随意。几周前我听说了这个 CUDA 业务,不知道你可以像这样使用你的视频卡。