我在我的一个 CUDA 应用程序上运行了视觉分析器。如果数据太大,应用程序会多次调用单个内核。这个内核没有分支。
分析器报告了83.6 %的高指令重播开销和83.5%的高全局内存指令重播开销。
以下是内核的一般外观:
// Decryption kernel
__global__ void dev_decrypt(uint8_t *in_blk, uint8_t *out_blk){
__shared__ volatile word sdata[256];
register uint32_t data;
// Thread ID
#define xID (threadIdx.x + blockIdx.x * blockDim.x)
#define yID (threadIdx.y + blockIdx.y * blockDim.y)
uint32_t tid = xID + yID * blockDim.x * gridDim.x;
#undef xID
#undef yID
register uint32_t pos4 = tid%4;
register uint32_t pos256 = tid%256;
uint32_t blk = pos256&0xFC;
// Indices
register uint32_t index0 = blk + (pos4+3)%4;
register uint32_t index1 = blk + (pos4+2)%4;
// Read From Global Memory
b0[pos256] = ((word*)in_blk)[tid+4] ^ dev_key[pos4];
data = tab(0,sdata[index0]);
data ^= tab(1,sdata[index1]);
sdata[pos256] = data ^ tab2[pos4];
data = tab(0,sdata[index0]);
data ^= tab(1,sdata[index1]);
sdata[pos256] = data ^ tab2[2*pos4];
data = tab(0,sdata[index0]);
data ^= tab(1,sdata[index1]);
data ^= tab2[3*pos4];
((uint32_t*)out_blk)[tid] = data + ((uint32_t*)in_blk)[tid];
}
如您所见,没有分支。线程最初将根据线程 ID + 16 字节从全局内存中读取。然后,它们将根据线程 ID 对全局内存中的数据执行操作后写入输出缓冲区。
任何想法为什么这个内核会有这么多开销?