3

我目前将算法移植到两个 GPU。硬件具有以下设置:

  • 两个 CPU 作为一个 NUMA 系统,因此主内存被拆分到两个 NUMA 节点。
  • 每个 GPU 都物理连接到其中一个 GPU。(每个 PCIe 控制器有一个 GPU)

我在主机上创建了两个线程来控制 GPU。每个线程都绑定到一个 NUMA 节点,即两个线程中的每一个都在一个 CPU 插槽上运行。如何确定 GPU 的数量以便我可以选择直接连接的 GPU 使用cudaSetDevice()

4

2 回答 2

6

正如我在评论中提到的,这是一种 CPU GPU 亲和力。这是我一起破解的 bash 脚本。我相信它将在 RHEL/CentOS 6.x 操作系统上提供有用的结果。它可能无法在许多较旧的或其他 linux 发行版上正常工作。您可以像这样运行脚本:

./gpuaffinity > out.txt

然后,您可以读取out.txt程序以确定哪些逻辑 CPU 内核对应于哪些 GPU。例如,在具有两个 6 核处理器和 4 个 GPU 的 NUMA Sandy Bridge 系统上,示例输出可能如下所示:

0     03f
1     03f
2     fc0
3     fc0

该系统有 4 个 GPU,编号从 0 到 3。每个 GPU 编号后跟一个“核心掩码”。核心掩码对应于“接近”特定 GPU 的核心,表示为二进制掩码。因此,对于 GPU 0 和 1,系统中的前 6 个逻辑内核(03f 二进制掩码)最接近。对于 GPU 2 和 3,系统中的后 6 个逻辑内核(fc0 二进制掩码)最接近。

您可以在程序中读取文件,也可以使用脚本中说明的逻辑在程序中执行相同的功能。

您还可以像这样调用脚本:

./gpuaffinity -v

这将给出更详细的输出。

这是 bash 脚本:

#!/bin/bash
#this script will output a listing of each GPU and it's CPU core affinity mask
file="/proc/driver/nvidia/gpus/0/information"
if [ ! -e $file ]; then
  echo "Unable to locate any GPUs!"
else
  gpu_num=0
  file="/proc/driver/nvidia/gpus/$gpu_num/information"
  if [ "-v" == "$1" ]; then echo "GPU:  CPU CORE AFFINITY MASK: PCI:"; fi
  while [ -e $file ]
  do
    line=`grep "Bus Location" $file | { read line; echo $line; }`
    pcibdf=${line:14}
    pcibd=${line:14:7}
    file2="/sys/class/pci_bus/$pcibd/cpuaffinity"
    read line2 < $file2
    if [ "-v" == "$1" ]; then
      echo " $gpu_num     $line2                  $pcibdf"
    else
      echo " $gpu_num     $line2 "
    fi
    gpu_num=`expr $gpu_num + 1`
    file="/proc/driver/nvidia/gpus/$gpu_num/information"
  done
fi
于 2013-04-24T06:10:08.503 回答
5

nvidia-smi 工具可以告诉 NUMA 机器上的拓扑。

% nvidia-smi topo -m
        GPU0    GPU1    GPU2    GPU3    CPU Affinity
GPU0     X      PHB     SOC     SOC     0-5
GPU1    PHB      X      SOC     SOC     0-5
GPU2    SOC     SOC      X      PHB     6-11
GPU3    SOC     SOC     PHB      X      6-11

Legend:

  X   = Self
  SOC  = Connection traversing PCIe as well as the SMP link between CPU sockets(e.g. QPI)
  PHB  = Connection traversing PCIe as well as a PCIe Host Bridge (typically the CPU)
  PXB  = Connection traversing multiple PCIe switches (without traversing the PCIe Host Bridge)
  PIX  = Connection traversing a single PCIe switch
  NV#  = Connection traversing a bonded set of # NVLinks
于 2018-10-02T01:18:26.893 回答