因此,如果我想在两个 GPU 之间进行统一虚拟地址 (UVA) 复制(使用带有 kind 参数的 cudaMemcpyAsync 是 cudaMemcopyDefault),我应该使用哪个流?源内存的设备流?还是注定记忆的开发流?
谢谢你
因此,如果我想在两个 GPU 之间进行统一虚拟地址 (UVA) 复制(使用带有 kind 参数的 cudaMemcpyAsync 是 cudaMemcopyDefault),我应该使用哪个流?源内存的设备流?还是注定记忆的开发流?
谢谢你
建议:改用cudaMemcpyPeerAsync。以这个问题为例。
我想从这里回答你的问题:
流和事件行为
如果将内核启动或内存复制发布到与当前设备无关的流,则会失败
因此,请选择与您最近cudaSetDevice()
拨打的电话对应的设备对应的流。