3

我在这里找到了答案,但不清楚是否应该重塑数组。在将 2d 数组传递给 pycuda 内核之前,我是否需要将其重塑为 1d ?

4

1 回答 1

3

无需重塑 2Dgpuarray即可将其传递给 CUDA 内核。

正如我在您链接到的答案中所说,2D numpy 或 PyCUDA 数组只是倾斜线性内存的分配,默认情况下以行主要顺序存储。两者都有两个成员,它们告诉您访问数组所需的一切 -shapestrides. 例如:

In [8]: X=np.arange(0,15).reshape((5,3))

In [9]: print X.shape
(5, 3)

In [10]: print X.strides
(12, 4)

形状是不言自明的,步幅是以字节为单位的存储间距。内核代码的最佳实践是将 PyCUDA 提供的指针视为使用分配的指针,cudaMallocPitch并将第一个元素stride视为内存中行的字节间距。一个简单的示例可能如下所示:

import pycuda.driver as drv
from pycuda.compiler import SourceModule
import pycuda.autoinit
import numpy as np

mod = SourceModule("""
__global__ void diag_kernel(float *dest, int stride, int N)
{
    const int tid = threadIdx.x + blockDim.x * blockIdx.x;

    if (tid < N) {
    float* p = (float*)((char*)dest + tid*stride) + tid;
        *p = 1.0f;
    }
}
""")

diag_kernel = mod.get_function("diag_kernel")

a = np.zeros((10,10), dtype=np.float32)
a_N = np.int32(a.shape[0])
a_stride = np.int32(a.strides[0])
a_bytes = a.size * a.dtype.itemsize
a_gpu = drv.mem_alloc(a_bytes)
drv.memcpy_htod(a_gpu, a)
diag_kernel(a_gpu, a_stride, a_N, block=(32,1,1))
drv.memcpy_dtoh(a, a_gpu)

print a

这里在设备上分配了一些内存,将一个归零的 2D 数组直接复制到该分配中,并将内核的结果(用 1 填充对角线)复制回主机并打印。在过程中的任何时候都没有必要展平或以其他方式修改 2D numpy 数据的形状或内存布局。结果是:

$ cuda-memcheck python ./gpuarray.py 
========= CUDA-MEMCHECK
[[ 1.  0.  0.  0.  0.  0.  0.  0.  0.  0.]
 [ 0.  1.  0.  0.  0.  0.  0.  0.  0.  0.]
 [ 0.  0.  1.  0.  0.  0.  0.  0.  0.  0.]
 [ 0.  0.  0.  1.  0.  0.  0.  0.  0.  0.]
 [ 0.  0.  0.  0.  1.  0.  0.  0.  0.  0.]
 [ 0.  0.  0.  0.  0.  1.  0.  0.  0.  0.]
 [ 0.  0.  0.  0.  0.  0.  1.  0.  0.  0.]
 [ 0.  0.  0.  0.  0.  0.  0.  1.  0.  0.]
 [ 0.  0.  0.  0.  0.  0.  0.  0.  1.  0.]
 [ 0.  0.  0.  0.  0.  0.  0.  0.  0.  1.]]
========= ERROR SUMMARY: 0 errors
于 2013-11-08T07:22:06.163 回答