一些计算密集型软件现在正在使用 GPU 来解决数学问题。现在 Flash 支持 GPU,是否可以使用 Flash 来解决数学问题?会怎么做。
换句话说,闪存是否公开了足够的低级 API 来控制 GPU 的行为以充分执行这样的任务?
问题示例;查找具有以下哈希的消息:2987432847298374298374982374
是的,因为您可以为随机访问输入提供纹理(如果它们提供更好的常量缓冲区)并渲染到 BitmapData 以进行输出,这是 GPGPU 所需的最少操作。没有太多关于 API 或 AGAL 指令集的完整程度的信息 - 我没有看到任何整数寄存器或按位运算的示例,这对您的示例问题非常有用,因此潜在的性能可能远比可以使用 DirectX 或 OpenGL 实现,但它仍然应该比 ActionScript 好得多!
然而,我应该指出,这将是老式的 GPGPU,这比现在使用新的 OpenCL 和 DirectCompute API 更难。
它不是当前的 Flash Player,而是仍在开发中的具有 gpu api 访问权限的 Flash Player Molehill。请参阅以下链接:
尤其是
编辑:当我找到好的链接时添加更多链接。