0

我正在尝试让 2 个 Nvidia GPU 并排工作以进行 n 体模拟(来源)。我进行了适当的检测,并将所有 OpenCL 内容存储在一个结构中:

struct ocl_wrap {
  cl_event event;
  cl_program program;
  cl_kernel kernel;
  cl_command_queue command_queue;
  cl_device_id device_id;
  cl_context context;

  cl_mem masses;
  cl_mem bodies;
  cl_mem speeds;
  cl_mem newBodies;

  cl_int ret;
};

所以现在,每个设备都分配了自己的结构(它自己的上下文、队列等),并且每一步我都运行这 2 个函数:

void writeGPU() {
      clCreateBuffer() //4* 
      clSetKernelArg() //5*
      clEnqueueNDRangeKernel()
}
void readGPU() {
      clEnqueueReadBuffer() //2*
      clFlush()
      clReleaseMemObject() //4*
}

一步看起来像这样:

void step() {
  for each gpu
    writeGPU();
  runCPU();
  for each gpu
    readGPU();
}

每个设备都有一个要解决的问题子集。

我有一个问题,前 64 个(有时是 128 个)从一个或另一个 GPU 浮动,我尝试复制回 CPU 实际上不会复制。否则,一切正常,第一个 GPU 完美运行。有时它只是工作,但只是随机出现错误并且它不会消失。有什么建议么?

4

2 回答 2

0

您可能在读取完成之前查看数据。clFlush仅确保命令离开主机,而不是命令在设备上完成。解决方案:使用阻塞读取,或使用clFinish代替clFlush,或使用 OpenCL 事件。

于 2014-01-04T15:28:42.477 回答
0

我在这一点上的猜测是,您可能没有使用OpenCL 事件系统,甚至可能没有使用OpenCL 内存屏障/栅栏来获取有关 I/O 读写是否已到达目的地的通知,并通过设置断点来协调您的程序和候补名单。如果您系统上的 OpenCL 分发套件正常工作并且您正在使用事件系统,那么上面显示的程序序列应该类似于

// setup global event objects
// setup global markers/barriers
void writeGPU() {
      // hook event listeners to APIs
      clCreateBuffer() //4* 
      clSetKernelArg() //5*
      clEnqueueNDRangeKernel()
      // place appropriate markers/barriers
}
void readGPU() {
      // Many OpenCL APIs listen to events and proceed only 
      // when the `wait` condition is satisfied or 
      // barrier conditions are met.
      clEnqueueReadBuffer() //2*
      clFlush()
      clReleaseMemObject() //4*
}
于 2014-01-02T03:23:28.763 回答