3

我有一块NVIDIA GTX 570显卡,在带有Cuda 4.0的Ubuntu 10.10 系统上运行。

我知道,为了性能,我们需要有效地访问内存,并巧妙地使用设备上的寄存器共享内存。

但是我不明白如何计算,每个线程可用的寄存器数量,或者单个块可以使用多少共享内存以及针对特定内核配置的其他简单/重要的计算。

我想通过一个明确的例子来理解这一点。顺便说一句,我目前正在尝试编写一个粒子代码,其中一个内核应该看起来像这样。

每个块是线程的一维集合,每个网格是块的一维集合。

  • 块数:16384
  • 每个块的线程数:32 (=> 总线程 32*16384 = 524288
  • 每个线程块都有一个32 x 32 的二维整数共享内存数组以供使用。

在一个线程中,我想存储一些类型的数字double。但是我不确定在double没有任何寄存器溢出到本地内存(在设备上)的情况下我可以存储多少这样的数字。有人能告诉我这个内核配置每个线程可以存储多少个双精度数吗?

另外,我的每个块的共享内存的上述配置是否有效?

关于如何推断这些事情的示例计算将非常具有说明性和帮助

这是关于我的 GTX 570 的信息:(使用 CUDA-SDK 的 deviceQuery)

[deviceQuery] starting...
./deviceQuery Starting...

 CUDA Device Query (Runtime API) version (CUDART static linking)

Found 1 CUDA Capable device(s)

    Device 0: "GeForce GTX 570"
      CUDA Driver Version / Runtime Version          4.0 / 4.0
      CUDA Capability Major/Minor version number:    2.0
      Total amount of global memory:                 1279 MBytes (1341325312 bytes)
      (15) Multiprocessors x (32) CUDA Cores/MP:     480 CUDA Cores
      GPU Clock Speed:                               1.46 GHz
      Memory Clock rate:                             1900.00 Mhz
      Memory Bus Width:                              320-bit
      L2 Cache Size:                                 655360 bytes
      Max Texture Dimension Size (x,y,z)             1D=(65536), 2D=(65536,65535), 3D=(2048,2048,2048)
      Max Layered Texture Size (dim) x layers        1D=(16384) x 2048, 2D=(16384,16384) x 2048
      Total amount of constant memory:               65536 bytes
      Total amount of shared memory per block:       49152 bytes
      Total number of registers available per block: 32768
      Warp size:                                     32
      Maximum number of threads per block:           1024
      Maximum sizes of each dimension of a block:    1024 x 1024 x 64
      Maximum sizes of each dimension of a grid:     65535 x 65535 x 65535
      Maximum memory pitch:                          2147483647 bytes
      Texture alignment:                             512 bytes
      Concurrent copy and execution:                 Yes with 1 copy engine(s)
      Run time limit on kernels:                     Yes
      Integrated GPU sharing Host Memory:            No
      Support host page-locked memory mapping:       Yes
      Concurrent kernel execution:                   Yes
      Alignment requirement for Surfaces:            Yes
      Device has ECC support enabled:                No
      Device is using TCC driver mode:               No
      Device supports Unified Addressing (UVA):      Yes
      Device PCI Bus ID / PCI location ID:           2 / 0
      Compute Mode:
         < Default (multiple host threads can use ::cudaSetDevice() with device simultaneously) >

    deviceQuery, CUDA Driver = CUDART, CUDA Driver Version = 4.0, CUDA Runtime Version = 4.0, NumDevs = 1, Device = GeForce GTX 570
    [deviceQuery] test results...
    PASSED

    Press ENTER to exit...
4

1 回答 1

1

所以,内核配置有点复杂。您应该使用CUDA 占用计算器. 另一方面,您必须研究经线的工作原理。一旦一个块被分配给一个 SM,它就会被进一步划分为 32 个线程的单元,称为 warp。可以说,warp 是 SM 中的线程调度单元。对于给定的块大小和分配给每个 SM 的给定块数,我们可以计算驻留在 SM 中的扭曲数。在您的情况下,一个经线包含 32 个线程,因此如果您有一个包含 256 个线程的块,那么您有 8 个经线。现在选择正确的内核设置取决于您的数据和操作,请记住您必须完全占用一个 SM,即:您必须在每个 SM 中获得完整的线程容量以及围绕长延迟操作进行调度的最大扭曲数. 另一个重要的事情是不要超过每个块的最大线程数的限制,在你的情况下是 1024。

于 2012-09-12T02:26:07.820 回答