如果可用,是否可以使推力函数使用多个 GPU 进行计算?我已经编写了这个 Thrust 代码,它在单个 GPU 上工作得很好。(Tesla C2050) 但是我在机器上连接了另外三张 Tesla C2050 卡,我想将它们用于我的计算。
我知道将多个 GPU 连接到一台机器上,我可以在每个 GPU 上并行运行一个 CUDA 内核,即设备 0 上的内核 0、设备 1 上的内核 1 等等。但就我而言,我想使用所有4 GPU 在单个推力函数调用上,例如推力::排序。这可能吗?
还没有。但它在 Thrust 的路线图中,您可以在 Google 小组中表达您的愿望。 https://github.com/thrust/thrust/wiki/Roadmap
https://github.com/thrust/thrust/issues/131
https://groups.google.com/forum/?hl=en&fromgroups=#!topic/thrust-users/qyP_oH7v58g
同样在这个主题上认为 Duane Merrill - 最快实现排序的创建者(基数排序 - b40c)。