问题标签 [gpu]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
cuda - GPU作为CPU的可行性?
您认为 GPU 作为像 CUDA 这样的 CPU 计划的未来是什么?您认为它们会成为主流并成为该行业的下一个流行时尚吗?Apple 正在构建一个使用 GPU 执行 CPU 任务的新框架,Nvidia 的 CUDA 项目在科学领域取得了很大的成功。你会建议学生花时间进入这个领域吗?
matrix - Xbox 360 上的 GPU 编程
我正在寻找有关 Xbox 360 上 XNA 的一些见解,主要是是否可以在其 GPU 上运行基于矢量的浮点数学?
如果有办法,你能指出我正确的方向吗?
multithreading - 基于 GPU 的显卡可以加速您的程序计算,如何?
我在这篇文章中读到,一家公司创建了一个软件,该软件能够并行使用多个基于 GPU 的视频卡,以每秒处理数千亿次定点计算。
该程序似乎在 Windows 中运行。是否可以从 Windows 将线程分配给 GPU?他们会创建自己的驱动程序然后与之交互吗?知道他们是如何做到的吗?
concurrency - 如何让已经编写好的并发程序在 GPU 阵列上运行?
我有一个用 Erlang 编写的神经网络,我刚买了一张带有 240 核 GPU 的 GeForce GTX 260 卡。使用CUDA作为胶水在显卡上运行它是微不足道的吗?
.net - 使用 3D 加速的图形渲染
我们为庞大的数据集生成图表。我们说的是每秒 4096 个样本,每张图 10 分钟。一个简单的计算得出每个线图有 4096 * 60 * 10 = 2457600 个样本。每个样本都是一个双精度(8 字节)精度的 FP。此外,我们在一个屏幕上渲染多个线图,最多大约一百个。这使得我们在一个屏幕上渲染了大约 25M 的样本。使用常识和简单的技巧,我们可以使用 CPU 在 2D 画布上绘制此代码来获得高性能。高性能,即渲染时间低于一分钟。由于这是科学数据,我们不能遗漏任何样本。说真的,这不是一个选择。甚至不要开始考虑它。
自然,我们希望使用所有可用的技术来改进渲染时间。多核、预渲染、缓存都很有趣,但不要削减它。我们希望这些数据集的渲染速度至少为 30FPS,首选 60FPS。我们现在这是一个雄心勃勃的目标。
卸载图形渲染的一种自然方法是使用系统的 GPU。GPU 可用于处理庞大的数据集并并行处理它们。一些简单的 HelloWorld 测试向我们展示了使用 GPU 在渲染速度上的昼夜差异。
现在的问题是:OpenGL、DirectX 和 XNA 等 GPU API 是为 3D 场景而设计的。因此,使用它们来渲染 2D 线图是可能的,但并不理想。在我们开发的概念证明中,我们遇到了需要将 2D 世界转换为 3D 世界的情况。突然间,我们必须使用 XYZ 坐标系和多边形、顶点等等。从发展的角度来看,这远非理想。代码变得不可读,维护是一场噩梦,还有更多的问题。
您对此 3D 有什么建议或想法?执行此操作以实际转换两个系统(2D 坐标与 3D 坐标和实体)的唯一方法是什么?还是有更时尚的方法来实现这一目标?
- 为什么在一个像素上渲染多个样本很有用? 因为它更好地代表了数据集。假设在一个像素上,您有值 2、5 和 8。由于某些样本省略算法,只绘制了 5。这条线只会到 5,而不是 8,因此数据会失真。你也可以反对相反的观点,但事实是第一个参数对我们使用的数据集很重要。这正是我们不能省略样本的原因。
gpu - GPU 编程简介
每个人的桌面上都有这台巨大的大规模并行化超级计算机,以显卡 GPU 的形式存在。
- 什么是 GPU 社区的“hello world”等价物?
- 我该做什么,我该去哪里,开始为主要的 GPU 供应商编写 GPU?
-亚当
3d - gpu, old hardware, 3d acceleration and a lib
i am writing a 2d lib which will have 3d acceleration but i'd like to do it in a way that it will efficiently run on older HW. Possibly typedefs to hide options/functions that your targeted mode does not support. (also there may be emulation func turned on)
What are some of the things older HW do? here is a list of questions and things i know of.
- Tiles, this will be unsupported. Its to old, my lib will support pixel access
- Single pixel buffer with scrolling. Example GBA
- multiple surface with surface to surface quick blt (no stretch)
- multiple surface with surface to surface quick blt with stretch (maybe this was emulated? does any HW stretch images for you?)
- HW pixel fill (i thought i saw the option in DX)
- HW transparent colour? (colour which is transparent, thought i seen in DX specs)
- Textures, older use to be a power of 2. The width does not have to be the same power of 2 as height? (example 64x256), does any require them to be the same
- Textures, newer HW can have them any width and height (or is this a lie?)
- Textures can be in crazy formats (ARGB 8888, ABGR 8888, ABGR 2 10 10 10)
Also, i cannot do a texture to texture blit? as in copy 60x40 from texture A to B in HW ? Also can textures be in palette? (i wont support this) and finally i should keep in mind about shaders 8)
What else am i missing?
image-processing - GPU 编程新手:学习什么?
我正在将某个场景渲染到屏幕外帧缓冲区 (FBO),然后我正在读取渲染图像,glReadPixels()
用于在 CPU 上进行处理。该处理涉及一些非常简单的扫描例程和数据提取。
在分析之后,我意识到我的应用程序所做的大部分事情都是花费时间glReadPixels()
——超过 50% 的时间。所以自然的步骤是将处理转移到 GPU 上,这样就不必复制数据了。
所以我的问题是 - 将这样的东西编程到 GPU 的最佳方法是什么?
GLSL?
库达?
还有什么我目前不知道的吗?
主要要求是它可以访问渲染的屏幕外帧缓冲区(或纹理数据,因为可以渲染到纹理)并能够将一些信息输出到 CPU,比如 1 -2Kb 每帧。
c# - 使用 c# 使用 GPU
我正试图从我的网格中获得更多的处理能力。
我正在使用所有 cpus/cores,是否可以将 GPU 与 C# 一起使用。
有人知道任何库或有任何示例代码吗?
opengl - 笔记本电脑关闭屏幕时关闭屏幕渲染?
我有一个冗长的数字运算过程,它利用了相当多的 OpenGL 离屏渲染。这一切都很好,但是当我在做三明治的时候让它自己工作时,我通常会发现它在我不在的时候崩溃了。
我能够确定崩溃发生的时间非常接近我正在使用的笔记本电脑决定关闭屏幕以节省能源。崩溃本身就在 NVIDIA dll 中,所以没有希望知道发生了什么。
显而易见的解决方案是关闭关闭屏幕和视频卡的电源管理功能,但我正在寻找更用户友好的东西。有没有办法以编程方式做到这一点?
我知道有一个利用 GPU 处理的 SETI@home 实现。它如何防止视频卡进入睡眠状态?