我正在研究用于科学应用的 GPU 的理论知识,我发现了这句话:
高算术强度和许多数据元素意味着可以通过计算而不是大数据缓存来隐藏内存访问延迟。
这到底是什么意思?可以解释为建议避免在为 GPU 编程时存储一些预先计算的结果,而是在每次我们在设备上运行函数时计算它们?
例如,假设我们有一个代码执行递归循环以计算一个长数组,其中包含大量计算。此外,假设我们可以预先计算一些部分数组,这将有助于在循环内部跳过一些计算,甚至是一些不是很昂贵的计算。根据引用,我们是否应该避免这种情况,但每个周期都计算这些数组?