1

我是 cuda 编程的新手。我想实现大数组的向量加法。数组大小为 100 万。因为我无法创建 100 万个 1d 块。我曾想过制作 1000x1000 块,每个块中有 1 个线程。

相关主代码

//Copy to GPU
printf( "GPU\n" );
cudaMemcpy( dev_src1, src1, size * sizeof(int), cudaMemcpyHostToDevice );
cudaMemcpy( dev_src2, src2, size * sizeof(int), cudaMemcpyHostToDevice );

//Exec kernel
int nBlocks = ceil(sqrt(size));
int nThreadsPerBlock = 1;
addVector<<<dim3(nBlocks,nBlocks),nThreadsPerBlock>>>(dev_src1, dev_src2, dev_dest, size );

//Copy results to CPU
cudaMemcpy( dest, dev_dest, size * sizeof(int), cudaMemcpyDeviceToHost );

GPU内核

__global__ void addVector( int * src1, int * src2, int * dest, int size )
{
    int tid = blockIdx.y*blockDim.x + blockIdx.x;
    if( tid<size )
    dest[tid] = src1[tid] + src2[tid];
}

但是,在此之后我没有得到正确的结果。我的错误可能是什么以及如何纠正它?

这是我的结果的样子——

0: 0 + 0 = 0
1: 1 + 2 = 3
2: 2 + 4 = 6
3: 3 + 6 = 9
4: 4 + 8 = 12
5: 5 + 10 = 15
6: 6 + 12 = 18
7: 7 + 14 = 21
8: 8 + 16 = 24
9: 9 + 18 = 27
10: 10 + 20 = 266
11: 11 + 22 = 267
12: 12 + 24 = 268
13: 13 + 26 = 269
14: 14 + 28 = 270
15: 15 + 30 = 271
.
.

86: 86 + 172 = 342
87: 87 + 174 = 343
88: 88 + 176 = 344
89: 89 + 178 = 345
90: 90 + 180 = 346
91: 91 + 182 = 347
92: 92 + 184 = 348
93: 93 + 186 = 349
94: 94 + 188 = 350
95: 95 + 190 = 351
96: 96 + 192 = 352
97: 97 + 194 = 353
98: 98 + 196 = 354
99: 99 + 198 = 355
4

1 回答 1

3

在您当前的情况下,您计算tid不正确。

如果每个块有 1 个线程,则为blockDim.x1。

tid应计算为:

int tid = blockIdx.y * gridDim.x + blockIdx.x;

但是,我不建议每个块创建 1 个线程并创建大量块。这显然是低效的,因为内核的占用率会非常低。

推荐的方法是创建一个足够大的块,例如每个块 128 或 256 个线程,然后创建一个足够大的网格来覆盖整个数据。

例如:

int nThreadsPerBlock = 256;
int nBlocks = (size + nThreadsPerBlock - 1)/nThreadsPerBlock;

使用这种方法,tid将计算为:

int tid = blockIdx.x * blockDim.x + threadIdx.x;
于 2013-01-29T10:23:46.250 回答