2

我有一个基于 rhel 6.1 的三节点集群

在每个节点上我有两个 CPU 和 4 个 GPU Tesla M2090/

我使用 Openmpi 1.6.1,它工作正常(系统在 GPU Linpak 版本上测试)。

我安装了 mvapich2 1.9,我也遇到了同样的问题。

我认为问题可能在这个测试中?!

库达 5.0 版

Infiniband - MEllanox。

此基准的编译是成功的,当我开始点对点仅使用 CPU(H 到 H)(本地主机和两个节点)时:

mpirun -np 2 ./osu_latency HH

它工作正常。但是当我使用 GPU 时(从 CPU 复制到 GPU 内存):

mpirun -np 2 ./osu_latency HD

程序因分段错误(11)而崩溃。

我使用以下参数从http://www.nersc.gov/assets/Trinity--NERSC-8-RFP/Benchmarks/Dec17/OMB-NERSC8.tar编译了这个基准,版本 3.7 :

--prefix=/usr/local/bench/osu --enable-cuda --with-cuda=/usr/local/cuda-5.0 --with-cuda-include=/usr/local/cuda-5.0/include - -with-cuda-libpath=/usr/local/cuda-5.0 CC=/usr/local/mpi/openmpi16/bin/mpicc

我尝试用过时的路径运行程序,但它没有效果。

问题出在哪里?预先感谢!

4

0 回答 0