3

这是一个很长的问题,所以我先做一个总结:

我是并行编程和网格系统的新手。我想在我有帐户的网格中运行http://jeremybejarano.zzl.org/MPIwithPython/introMPI.html中的第一个示例。维护人员提供了一个 C 示例。我可以运行它。但是对于 python 版本,我的排名全为零。可能是什么问题?

问题的长版本:

我有这段代码是用 python 2.7 (+numpy+matplotlib+mayavi) 编写的,需要很长时间才能运行。由于我在某个网格中有一个帐户,我想将代码移到那里,并花更少的时间等待试验完成。

不幸的是,我对并行性、网格等不熟悉。我在网格中也没有管理员权限。

提供了一些文档。系统使用 SLURM。您准备一个 sbatch 文件,并通过sbatch filename. 有这个用 C 编写的 helloworld 程序示例:

#include <stdio.h>
#include <mpi.h>


int main (argc, argv)
     int argc;
     char *argv[];
{
  int rank, size;

  MPI_Init (&argc, &argv);      /* starts MPI */
  MPI_Comm_rank (MPI_COMM_WORLD, &rank);        /* get current process id */
  MPI_Comm_size (MPI_COMM_WORLD, &size);        /* get number of processes */
  printf( "Hello world from process %d of %d\n", rank, size );
  MPI_Finalize();
  return 0;
}

以及管理员提供的运行它的 slurm 文件:

#!/bin/bash
#SBATCH -M linux
#SBATCH -p mid1
#SBATCH -A username
#SBATCH -J mid1-test
#SBATCH -N 1 
#SBATCH -n 4 
#SBATCH --time=2-00:00:00 
#SBATCH --workdir=/truba_scratch/username/test
#SBATCH --output=slurm-%j.out
#SBATCH --error=slurm-%j.err
#SBATCH --mail-type=ALL
#SBATCH --mail-user=who@am.i


. /usr/share/Modules/init/sh
module load somehostithink/library/openmpi-1.4.3/gcc
export OMP_NUM_THREADS=1
echo "SLURM_NODELIST $SLURM_NODELIST"

mpirun helloworld

exit

我可以通过 提交sbatch helloworld.slurm。最后,我看到从 0 到 3 的“hello worlds”。例如,rank 对每个进程采用不同的值。好的!

问题是,没有用 Python 编写的示例程序。系统中的python是旧的:2.6.x。所以我下载了anaconda发行版并安装在用户空间。我尝试改编上面的示例 helloworld.slurm。我想在这里运行 helloworld 示例:http: //jeremybejarano.zzl.org/MPIwithPython/introMPI.html。我可以提交作业,但我得到的 helloworlds 排名都相同,正如您从输出文件中看到的那样。例如,这似乎并没有在不同的进程上运行。

注意:我在 c 版本中得到相同的错误,但它仍然运行并产生不同的等级。

你好世界python版本:

from mpi4py import MPI
comm = MPI.COMM_WORLD
rank = comm.Get_rank()
print "hello world from process ", rank

python hello world (main.py) 的 slurm 文件

#!/bin/bash
#SBATCH -M linux
#SBATCH -p mid1
#SBATCH -A username
#SBATCH -J mid1-test
#SBATCH -N 1
#SBATCH -n 4
#SBATCH --time=2-00:00:00
#SBATCH --workdir=/scratch/username/test
#SBATCH --output=slurm-%j.out
#SBATCH --error=slurm-%j.err
#SBATCH --mail-type=ALL
#SBATCH --mail-user=who@am.i

. /usr/share/Modules/init/sh
module load somehost/library/openmpi-1.4.3/gcc
export OMP_NUM_THREADS=1
echo "SLURM_NODELIST $SLURM_NODELIST"

mpirun /scratch/username/anaconda/bin/python /scratch/username/test/main.py

exit

产生的错误文件:

slurmd[shomehostithink]: task/cgroup: plugin not compiled with hwloc support, skipping affinity.

产生的输出文件:

SLURM_NODELIST hostidithink
hello world from process  0
hello world from process  0
hello world from process  0
hello world from process  0

那么,问题的原因可能是什么?我该如何解决?

我显然向管理员发送了一条消息,但他还没有回复。

4

1 回答 1

1

在 Linux 下,Anacondampi4pympich捆绑在一起(并且它在 OS X 中使用 OpenMPI。)由于您使用的是 OpenMPI mpirun,因此可以解释单例效应。你有两个选择:

  1. 从源代码重新编译 Anaconda 以使用 openmpi-1.4.3/gcc
  2. 尝试找到 Anaconda 的 mpirun 程序并使用该程序,例如/scratch/username/anaconda/bin/mpirun /scratch/username/anaconda/bin/python /scratch/username/test/main.py

您在使用 Slurm 时遇到的错误表明 cgroup Slurm 插件未在 hwloc 支持下编译,因此不支持任务关联(将进程固定到核心)。它不应该是单例问题的原因。

于 2014-11-19T16:14:36.383 回答