问题标签 [gpu]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
opengl - GPU 手动 Mipmap 生成 [OpenGL 2.x]
我想使用特定的自定义算法为某些可渲染纹理(R16F 和 RGBA16F)生成 mipmap。
使用 glGenerateMipmapEXT() 预先启用所有需要的纹理的 mipmap。
到目前为止最大的问题是渲染到 1+ mipmap 级别。 更准确地说,这就像一个魅力:
但这在检查 fbo 状态时给了我一个 GL_FRAMEBUFFER_INCOMPLETE_ATTACHMENT_EXT
代码的所有区别在于将纹理附加到 FBO 的 lod 级别参数。
经过大量的发烧头抓挠后,我仍然无法正常工作。因此,非常感谢任何答案。
[注意:目标平台是带有 FBO 扩展的 OpenGL 2.x]
build-automation - 从 cmake 测试是否存在支持 cuda 的 GPU 的最简单方法是什么?
我们有一些安装了cuda 库但没有安装支持 cuda 的 GPU 的夜间构建机器。这些机器能够构建支持 cuda 的程序,但它们不能运行这些程序。
在我们的自动化夜间构建过程中,我们的 cmake 脚本使用 cmake 命令
find_package(CUDA)
判断是否安装了cuda软件。这会在安装了 cuda 软件的平台上设置 cmake 变量CUDA_FOUND
。这很棒,而且效果很好。设置时CUDA_FOUND
,可以构建启用 cuda 的程序。即使机器没有支持 cuda 的 GPU。
但是使用 cuda 的测试程序在非 GPU 的 cuda 机器上自然会失败,导致我们的夜间仪表板看起来“脏”。所以我希望 cmake 避免在这些机器上运行这些测试。但我仍然想在这些机器上构建 cuda 软件。
在得到肯定的CUDA_FOUND
结果后,我想测试是否存在实际的 GPU,然后设置一个变量,比如CUDA_GPU_FOUND
,来反映这一点。
让 cmake 测试是否存在支持 cuda 的 gpu 的最简单方法是什么?
这需要在三个平台上运行:带有 MSVC 的 Windows、Mac 和 Linux。(这就是我们首先使用 cmake 的原因)
编辑:关于如何编写程序来测试 GPU 是否存在的答案中有一些好看的建议。仍然缺少的是让 CMake 在配置时编译和运行该程序的方法。我怀疑TRY_RUN
CMake 中的命令在这里很关键,但不幸的是,该命令几乎没有记录,我不知道如何使它工作。问题的这个 CMake 部分可能是一个更困难的问题。也许我应该把这个作为两个单独的问题来问......
cuda - 如何优化 cuda 程序以获得更好的性能?
我为生成密钥编写了 matlab 程序(cuda)。
如何优化 cuda 程序以获得更好的性能?
opengl - 是否可以在现代 GPU 上进行老式 2d 位图?
看起来 GL 已经成为所有游戏平台(甚至是手持设备!)的主流,这推动了现代 GPU 芯片组的部署给大量消费者。
这真太了不起了。
现在有了现代 GPU 系统,是否可以进行通用的老式图形编程(又名 - 使用 VRAM 从 X rect 到 Y rect 的 blit)?(想想 Amiga)还是以顶点和像素着色器为中心的操作?
这可以从 GL 访问吗?OpenGL ES?
渲染一个带纹理的四边形是可以的,但它需要双缓冲和整个场景的重新渲染。正在看我是否可以避免这种情况。
opengl - 通过硬件在 OpenGL 上滚动 2D 引擎?
我使用 OpenGL 作为 2D 平铺引擎的底端。当一切都是 2D 时,优化某些问题很简单。例如,滚动。如果我知道屏幕的某个部分需要滚动到底部,那么我就可以在该部分上快速移动。我晚上一次移动超过 1 个像素。如果没有明确的硬件支持(想想旧的任天堂硬件),这需要大量的像素写入。片上 bitblt 将是下一个最好的东西。
本质上,我正在研究如何优化我的 GL 调用以使用 VRAM 纹理渲染作为高效的硬件 blit。
是否可以让 GL 滚动帧缓冲区,或者我应该让自己接受双缓冲并为每一帧重新渲染整个场景?
谢谢
gpu - 我应该选择哪个平台进行科学计算?
选择 PS3 作为科学计算平台而不是 GPU 的优缺点是什么?它是更好的选择吗?
benchmarking - GPU 编程 - 传输瓶颈
因为我希望我的 GPU 为我做一些计算,所以我对测量“纹理”上传和下载速度的主题很感兴趣——因为我的“纹理”是 GPU 应该处理的数据。
我知道从主内存到 GPU 内存的传输是首选的方式,所以我希望这样的应用程序只有在有大量数据要处理并且很少读回结果的情况下才会高效。
无论如何,任何这样的基准测试应用程序?我的意思是,用于测量主存<>GPU 传输吞吐量...
编辑(问题澄清):
一旦有一个应用程序,你启动它,它给出了 2 个数字:
mb/s 主内存和显卡内存之间的传输速率,从主 TO 图,纹理上传
mb/s 主内存和显卡内存之间的传输速率,从图形到主,纹理下载
我只想再次把手放在上面。
另一个编辑(发现了一些东西):
这里http://www.benchmarkhq.ru/english.html?/be_mm.html(搜索 TexBench)是一个测量吞吐量的应用程序 ONE WAY...
cuda - Cuda GPU 优化
我读过当您使用 NVIDIA GPU 而不是 CPU 时,某些问题有 100 倍的加速。
在不同问题上使用 cuda 的最佳性能加速时间是什么。
如果可能,请说明问题和加速因素以及论文链接。
cuda - GPU 上的图算法
当前的 GPU 执行和内存模型在某种程度上受到限制(内存限制、数据结构限制、无递归......)。
您认为在 GPU 上实现图论问题是否可行?例如,顶点覆盖?主导集?独立集?最大派系?...
在 GPU 上使用分支定界算法是否也可行?递归回溯?
simulation - 哪些物理开源仿真方法值得移植到 GPU
我正在写一份报告,我想知道,在你看来,哪些开源物理模拟方法(如分子动力学、布朗动力学等)尚未移植,值得移植到 GPU 或其他特殊硬件可以潜在地加速计算。
项目链接将不胜感激。
提前致谢