17

我有一个问题,我想在多个 CUDA 设备上拆分,但我怀疑我当前的系统架构阻碍了我;

我设置的是一个 GPU 类,具有在 GPU 上执行操作的功能(奇怪)。这些操作的风格

for iteration in range(maxval):
    result[iteration]=gpuinstance.gpufunction(arguments,iteration)

我原以为 N 个设备会有 N 个 gpuinstances,但我对多处理的了解还不够,无法看到应用它的最简单方法,以便异步分配每个设备,奇怪的是,我遇到的示例很少处理后整理结果的具体演示。

谁能给我这方面的任何指示?

更新 感谢 Kaloyan 在多处理领域的指导;如果 CUDA 不是特别的症结所在,我会将您标记为已回答。对不起。

在使用这个实现之前,gpuinstance 类启动了 CUDA 设备,import pycuda.autoinit但是这似乎不起作用,invalid context一旦每个(正确范围的)线程遇到 cuda 命令,就会抛出错误。然后我尝试在__init__类的构造函数中手动初始化......

pycuda.driver.init()
self.mydev=pycuda.driver.Device(devid) #this is passed at instantiation of class
self.ctx=self.mydev.make_context()
self.ctx.push()    

我的假设是在创建 gpuinstances 列表和线程使用它们之间保留上下文,因此每个设备都位于自己的上下文中。

(我还实现了一个析构函数来进行pop/detach清理)

问题是,invalid context一旦线程尝试接触 CUDA,异常仍然会出现。

有什么想法吗?感谢能走到这一步。自动为“香蕉”工作的人投票!:P

4

2 回答 2

21

你需要先把你所有的香蕉都放在 CUDA 方面,然后考虑用 Python 完成这项工作的最佳方法[我知道无耻的代表嫖娼]。

CUDA 多 GPU 模型在 4.0 之前非常简单——每个 GPU 都有自己的上下文,每个上下文必须由不同的主机线程建立。所以伪代码中的想法是:

  1. 应用程序启动,进程使用 API 来确定可用 GPU 的数量(注意 Linux 中的计算模式之类的东西)
  2. 应用程序为每个 GPU 启动一个新的主机线程,传递一个 GPU id。每个线程隐式/显式调用等效的 cuCtxCreate() 传递它已分配的 GPU id
  3. 利润!

在 Python 中,这可能看起来像这样:

import threading
from pycuda import driver

class gpuThread(threading.Thread):
    def __init__(self, gpuid):
        threading.Thread.__init__(self)
        self.ctx  = driver.Device(gpuid).make_context()
        self.device = self.ctx.get_device()

    def run(self):
        print "%s has device %s, api version %s"  \
             % (self.getName(), self.device.name(), self.ctx.get_api_version())
        # Profit!

    def join(self):
        self.ctx.detach()
        threading.Thread.join(self)

driver.init()
ngpus = driver.Device.count()
for i in range(ngpus):
    t = gpuThread(i)
    t.start()
    t.join()

这假设在没有事先检查设备的情况下建立上下文是安全的。理想情况下,您会检查计算模式以确保尝试安全,然后在设备繁忙时使用异常处理程序。但希望这给出了基本的想法。

于 2011-05-06T07:57:13.040 回答
3

您需要的是map内置函数的多线程实现。是一种实现。只需稍作修改即可满足您的特定需求,您将获得:

import threading

def cuda_map(args_list, gpu_instances):

    result = [None] * len(args_list)

    def task_wrapper(gpu_instance, task_indices):
        for i in task_indices:
            result[i] = gpu_instance.gpufunction(args_list[i])

    threads = [threading.Thread(
                    target=task_wrapper, 
                    args=(gpu_i, list(xrange(len(args_list)))[i::len(gpu_instances)])
              ) for i, gpu_i in enumerate(gpu_instances)]
    for t in threads:
        t.start()
    for t in threads:
        t.join()

    return result

它与您上面的内容或多或少相同,最大的区别在于您无需花费时间等待gpufunction.

于 2011-05-05T23:12:01.800 回答