30

这是我的代码:

int threadNum = BLOCKDIM/8;
dim3 dimBlock(threadNum,threadNum);
int blocks1 = nWidth/threadNum + (nWidth%threadNum == 0 ? 0 : 1);
int blocks2 = nHeight/threadNum + (nHeight%threadNum == 0 ? 0 : 1);
dim3 dimGrid;
dimGrid.x = blocks1;
dimGrid.y = blocks2;

//  dim3 numThreads2(BLOCKDIM);
//  dim3 numBlocks2(numPixels/BLOCKDIM + (numPixels%BLOCKDIM == 0 ? 0 : 1) );
perform_scaling<<<dimGrid,dimBlock>>>(imageDevice,imageDevice_new,min,max,nWidth, nHeight);
cudaError_t err = cudaGetLastError();
cudasafe(err,"Kernel2");

这是我的第二个内核的执行,它在数据使用方面完全独立。BLOCKDIM是 512 ,nWidth and nHeight也是 512 并且cudasafe简单地打印错误代码的相应字符串消息。这部分代码在内核调用之后给出了配置错误。

什么可能会给这个错误,任何想法?

4

2 回答 2

53

这种类型的错误消息通常是指启动配置参数(在这种情况下是网格/线程块尺寸,在其他情况下也可能是共享内存等)。当您看到这样的消息时,最好在启动内核之前打印出您的实际配置参数,看看您是否犯了任何错误。

你说BLOCKDIM= 512。你有threadNum = BLOCKDIM/8= threadNum64。你的线程块配置是:

dim3 dimBlock(threadNum,threadNum);

因此,您要求启动 64 x 64 线程块,即每个块 4096 个线程。这不适用于任何一代的 CUDA 设备。当前所有的 CUDA 设备都被限制为每个块最多 1024 个线程,这是 3 个块维度的乘积。

最大尺寸列在CUDA 编程指南的表 14中,也可通过deviceQueryCUDA 示例代码获得。

于 2013-04-20T21:44:48.010 回答
1

只是为了添加到前面的答案,您还可以找到代码中允许的最大线程数,因此它可以在其他设备上运行,而无需硬编码您将使用的线程数:

struct cudaDeviceProp properties;
cudaGetDeviceProperties(&properties, device);
cout<<"using "<<properties.multiProcessorCount<<" multiprocessors"<<endl;
cout<<"max threads per processor: "<<properties.maxThreadsPerMultiProcessor<<endl;
于 2015-10-12T11:11:02.330 回答