CUDA如何同步两张显卡?他们如何沟通?我有两张特斯拉卡,但我不知道如何在它们之间进行通信。
我需要在 RAM 中存储 5 GB 矩阵。我有两张特斯拉卡,每张 3GB RAM。我可以通过将内核分成更小的内核来强制同步吗?
CUDA如何同步两张显卡?他们如何沟通?我有两张特斯拉卡,但我不知道如何在它们之间进行通信。
我需要在 RAM 中存储 5 GB 矩阵。我有两张特斯拉卡,每张 3GB RAM。我可以通过将内核分成更小的内核来强制同步吗?
这篇由 NVIDIA 开发技术工程师 Paulius Micikevicius 编写的多 GPU 编程教程全面概述了多 GPU 上的 CUDA 编程,包括 GPU 之间的通信和同步。
综上所述,CUDA Runtime API(v4.x 及更高版本)提供了cudaMemcpy*
提供点对点复制功能的功能,并且可以通过使用 Stream 和 Event API(例如cudaStreamWaitEvent()
)来实现同步。