2

我有一个简单的 cuda 应用程序,代码如下:

#include <stdio.h>
#include <sys/time.h>
#include <stdint.h>
__global__
void daxpy(int n, int a, int *x, int *y) {
  int i = blockIdx.x*blockDim.x + threadIdx.x;
  y[i] = x[i];
  int j;
  for(j = 0; j < 1024*10000; ++j) {
     y[i] += j%10;
  }
}
// debug time
void calc_time(struct timeval *start, const char *msg) {
   struct timeval end;
   gettimeofday(&end, NULL);
   uint64_t us = end.tv_sec * 1000000 + end.tv_usec - (start->tv_sec * 1000000 + start->tv_usec);
   printf("%s cost us = %llu\n", msg, us);
   memcpy(start, &end, sizeof(struct timeval));
}
void do_test() {
   unsigned long n = 1536;
   int *x, *y, a, *dx, *dy;
   a = 2.0;
   x = (int*)malloc(sizeof(int)*n);
   y = (int*)malloc(sizeof(int)*n);
   for(i = 0; i < n; ++i) {
      x[i] = i;
   }

   cudaMalloc((void**)&dx, n*sizeof(int));
   cudaMalloc((void**)&dy, n*sizeof(int));
   struct timeval start;
   gettimeofday(&start, NULL);
   cudaMemcpy(dx, x, n*sizeof(int), cudaMemcpyHostToDevice);

   daxpy<<<1, 512>>>(n, a, dx, dy); // this line 
   cudaThreadSynchronize();
   cudaMemcpy(y, dy, n*sizeof(int), cudaMemcpyDeviceToHost);
   calc_time(&start, "do_test ");
   cudaFree(dx);
   cudaFree(dy);
   free(x);
   free(y);
}
int main() {
   do_test();
   return 0;
}

gpu 内核调用是daxpy<<<1, 512>>>(n, a, dx, dy),我使用不同的块大小执行了一些测试:

  • daxpy<<<1, 32>>>(n, a, dx, dy)
  • daxpy<<<1, 64>>>(n, a, dx, dy)
  • daxpy<<<1, 128>>>(n, a, dx, dy)
  • daxpy<<<1, 129>>>(n, a, dx, dy)
  • daxpy<<<1, 512>>>(n, a, dx, dy)

...并提出以下意见:

  • 、 和块大小的执行时间相同3264128
  • 执行时间因块大小128而异129,特别是:
    • 128执行时间为280ms ,
    • 因为129执行时间是 386ms。

我想问一下是什么导致了块大小128129.

我的GPU是特斯拉K80:

CUDA Driver Version / Runtime Version          6.5 / 6.5
CUDA Capability Major/Minor version number:    3.7
Total amount of global memory:                 11520 MBytes (12079136768 bytes)
(13) Multiprocessors, (192) CUDA Cores/MP:     2496 CUDA Cores
GPU Clock rate:                                824 MHz (0.82 GHz)
Memory Clock rate:                             2505 Mhz
Memory Bus Width:                              384-bit
L2 Cache Size:                                 1572864 bytes
Maximum Texture Dimension Size (x,y,z)         1D=(65536), 2D=(65536, 65536), 3D=(4096, 4096, 4096)
Maximum Layered 1D Texture Size, (num) layers  1D=(16384), 2048 layers
Maximum Layered 2D Texture Size, (num) layers  2D=(16384, 16384), 2048 layers
Total amount of constant memory:               65536 bytes
Total amount of shared memory per block:       49152 bytes
Total number of registers available per block: 65536
Warp size:                                     32
Maximum number of threads per multiprocessor:  2048
Maximum number of threads per block:           1024
Max dimension size of a thread block (x,y,z): (1024, 1024, 64)
Max dimension size of a grid size    (x,y,z): (2147483647, 65535, 65535)
Maximum memory pitch:                          2147483647 bytes
Texture alignment:                             512 bytes
Concurrent copy and kernel execution:          Yes with 2 copy engine(s)
Run time limit on kernels:                     No
Integrated GPU sharing Host Memory:            No
Support host page-locked memory mapping:       Yes
Alignment requirement for Surfaces:            Yes
Device has ECC support:                        Enabled
Device supports Unified Addressing (UVA):      Yes
Device PCI Bus ID / PCI location ID:           135 / 0
4

1 回答 1

3

在其中一条评论中向我们提供了确切的时差后,即:

  • 最多 128 个线程为 280 毫秒,
  • 129+ 线程为 386 毫秒,

我认为它间接地支持了我关于扭曲调度问题的理论。看GK210白皮书,这是K80使用的芯片:

  • K80 SMX 具有 Quad Warp 调度器,请参阅Quad Warp Scheduler部分,
  • 这意味着 K80 SMX 能够一次调度多达 128 个线程(4 个 warp == 128 个线程),然后这些线程同时执行,

因此,对于 129 个线程,调度不能一次发生,因为 SMX 必须调度 5 个 warp,即调度将分两步进行。

如果上述情况属实,那么我希望:

  • 块大小 1 - 128 的执行时间大致相同,
  • 块大小 129 - 192 的执行时间大致相同。

192 是 SMX 上的内核数,请参阅白皮书。提醒一下 - 整个块总是为一个 SMX 安排,因此很明显,如果您产生超过 192 个线程,那么这些线程肯定无法并行执行,并且 193+ 个线程的执行时间应该更高。

您可以通过将内核代码简化到几乎什么都不做的程度来验证上述论点,因此执行是否仅由于调度而花费更长的时间应该或多或少显而易见(不会有其他限制因素,例如内存吞吐量) .

免责声明:以上只是我的假设,因为我无法访问 K80,也无法访问任何其他带有 Quad Warp 调度程序的 GPU,因此我无法正确分析您的代码。但无论如何,我相信这是你的任务——为什么不使用 nvprof 并自己分析你的代码呢?然后你应该能够看到时差在哪里。

于 2015-05-07T07:55:35.930 回答