我目前有一个与此类似的并行 for 循环:
int testValues[16]={5,2,2,10,4,4,2,100,5,2,4,3,29,4,1,52};
parallel_for (1, 100, 1, [&](int i){
int var4;
int values[16]={-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1,-1};
/* ...nested for loops */
for (var4=0; var4<16; var4++) {
if (values[var4] != testValues[var4]) break;
}
/* ...end nested loops */
}
我已经尽可能地优化到我唯一能做的就是添加更多资源。
我有兴趣利用 GPU 来帮助并行处理任务。我读过这样的令人尴尬的并行任务可以非常有效地利用现代 GPU。
使用任何语言,将 GPU 用于像这样的简单并行 for 循环的最简单方法是什么?
我对 GPU 架构或原生 GPU 代码一无所知。