我正在做我的 AI 博士研究,我已经到了必须开始为我的测试平台使用 CUDA 库的部分。我以前玩过 CUDA,对 GPGPU 的工作原理等有基本的了解,但我对浮点精度感到困扰。
看着 GTX680,我看到 FP64:1/24 FP32,而 Tesla 在 1.31 TFLOPS 有完整的 FP64。我很明白,一张是游戏卡,一张是职业卡。
我问的原因很简单:我买不起特斯拉,但我可能能买到两台 GTX680。虽然主要目标是拥有尽可能多的 CUDA 内核和内存,但浮点精度可能会成为一个问题。
我的问题是:
- 游戏 GPU 中的小浮点精度有多少折衷?
- 32位浮点精度的1/24是不是太小了?尤其是与之前的 1/8 FP32 费米相比
- 由于浮点精度较小,是否存在计算结果错误的风险?即在支持向量机、VSM、矩阵运算、深度信念网络等中,由于浮点数较小,我是否会对算法的结果有问题,或者它是否仅仅意味着运算将花费更长的时间/使用更多的内存?
谢谢 !