我在这里找到了答案,但不清楚是否应该重塑数组。在将 2d 数组传递给 pycuda 内核之前,我是否需要将其重塑为 1d ?
问问题
3226 次
1 回答
3
无需重塑 2Dgpuarray
即可将其传递给 CUDA 内核。
正如我在您链接到的答案中所说,2D numpy 或 PyCUDA 数组只是倾斜线性内存的分配,默认情况下以行主要顺序存储。两者都有两个成员,它们告诉您访问数组所需的一切 -shape
和strides
. 例如:
In [8]: X=np.arange(0,15).reshape((5,3))
In [9]: print X.shape
(5, 3)
In [10]: print X.strides
(12, 4)
形状是不言自明的,步幅是以字节为单位的存储间距。内核代码的最佳实践是将 PyCUDA 提供的指针视为使用分配的指针,cudaMallocPitch
并将第一个元素stride
视为内存中行的字节间距。一个简单的示例可能如下所示:
import pycuda.driver as drv
from pycuda.compiler import SourceModule
import pycuda.autoinit
import numpy as np
mod = SourceModule("""
__global__ void diag_kernel(float *dest, int stride, int N)
{
const int tid = threadIdx.x + blockDim.x * blockIdx.x;
if (tid < N) {
float* p = (float*)((char*)dest + tid*stride) + tid;
*p = 1.0f;
}
}
""")
diag_kernel = mod.get_function("diag_kernel")
a = np.zeros((10,10), dtype=np.float32)
a_N = np.int32(a.shape[0])
a_stride = np.int32(a.strides[0])
a_bytes = a.size * a.dtype.itemsize
a_gpu = drv.mem_alloc(a_bytes)
drv.memcpy_htod(a_gpu, a)
diag_kernel(a_gpu, a_stride, a_N, block=(32,1,1))
drv.memcpy_dtoh(a, a_gpu)
print a
这里在设备上分配了一些内存,将一个归零的 2D 数组直接复制到该分配中,并将内核的结果(用 1 填充对角线)复制回主机并打印。在过程中的任何时候都没有必要展平或以其他方式修改 2D numpy 数据的形状或内存布局。结果是:
$ cuda-memcheck python ./gpuarray.py
========= CUDA-MEMCHECK
[[ 1. 0. 0. 0. 0. 0. 0. 0. 0. 0.]
[ 0. 1. 0. 0. 0. 0. 0. 0. 0. 0.]
[ 0. 0. 1. 0. 0. 0. 0. 0. 0. 0.]
[ 0. 0. 0. 1. 0. 0. 0. 0. 0. 0.]
[ 0. 0. 0. 0. 1. 0. 0. 0. 0. 0.]
[ 0. 0. 0. 0. 0. 1. 0. 0. 0. 0.]
[ 0. 0. 0. 0. 0. 0. 1. 0. 0. 0.]
[ 0. 0. 0. 0. 0. 0. 0. 1. 0. 0.]
[ 0. 0. 0. 0. 0. 0. 0. 0. 1. 0.]
[ 0. 0. 0. 0. 0. 0. 0. 0. 0. 1.]]
========= ERROR SUMMARY: 0 errors
于 2013-11-08T07:22:06.163 回答