0

我是 MPI 初学者。我有gmat 一大堆数字(双精度类型,尺寸 1x14000000),它们是预先计算并存储在二进制文件中的。它将使用大约 100 MB 的内存(14000000 x8 字节 /1024 /1024)。我想编写一个 MPI 代码,它将对该数组进行一些计算(例如,将 的所有元素乘以gmat进程的秩数)。该数组gmat本身在运行时保持不变。代码应该是这样的

#include <iostream>
#include "mpi.h"
double* gmat;
long int imax;

int main(int argc, char* argv[])
{
void performcomputation(int rank); // this function performs the computation and will be called by all processes

imax=atoi(argv[1]); // user inputs the length of gmat 

MPI::Init();
rank = MPI::COMM_WORLD.Get_rank();
size = MPI::COMM_WORLD.Get_size(); //i will use -np 16 = 4 processors x 4 cores

if rank==0 // read the gmat array using one of the processes
{
gmat = new double[imax];
// read values of gmat from a file
// next line is supposed to broadcast values of gmat to all processes which will use it
MPI::COMM_WORLD.Bcast(&gmat,imax,MPI::DOUBLE,1);     
}

MPI::COMM_WORLD.Barrier();
performcomputation(rank);  
MPI::Finalize();  

return 0;
} 

void performcomputation(int rank)
{
int i;
for (i=0;i <imax; i++)
cout << "the new value is" << gmat[i]*rank << endl; 
}    

我的问题是,当我使用 16 个进程(-np 16)运行此代码时,它们的 gmat 是否相同?我的意思是,代码会在内存中使用 16 x 100 MB 来存储每个进程的 gmat 还是只使用 100 MB,因为我已将 gmat 定义为 global ?而且我不希望不同的进程从文件中单独读取 gmat,因为读取这么多数字需要时间。有什么更好的方法来做到这一点?谢谢。

4

1 回答 1

1

首先,请不要使用 MPI C++ 绑定。这些在 MPI-2.2 中被弃用,然后在 MPI-3.0 中被删除,因此不再是规范的一部分,这意味着未来的 MPI 实现甚至不需要提供 C++ 绑定,如果它们这样做,它们可能会在界面的样子。

也就是说,您的代码包含一个非常常见的错误:

if rank==0 // read the gmat array using one of the processes
{
   gmat = new double[imax];
   // read values of gmat from a file
   // next line is supposed to broadcast values of gmat to all processes which will use it
   MPI::COMM_WORLD.Bcast(&gmat,imax,MPI::DOUBLE,1);     
}

这不起作用,因为这里有四个错误。首先,gmat只分配在 rank 0 而不是分配在其他 rank 中,这不是你想要的。其次,您给出Bcast的是指针gmat的地址,而不是它所指向的数据的地址(即您不应该使用&运算符)。您还可以从等级广播,0但将1其作为广播根参数。但最重要的错误是MPI_BCAST集体通信调用,所有等级都必须以相同的root参数值调用它才能成功完成。正确的代码(使用 C 绑定而不是 C++ 绑定)是:

gmat = new double[imax];

if (rank == 0)
{
   // read values of gmat from a file
}
MPI_Bcast(gmat, imax, MPI_DOUBLE, 0, MPI_COMM_WORLD);
//        ^^^^                   ^^^
//        no &                root == 0

每个等级都有自己的副本gmat。最初所有值都是不同的(例如随机或全零,取决于内存分配器)。广播后,所有副本都将与gmatrank 0 的副本相同。在调用performcomputation()每个副本之后,每个副本将再次不同,因为每个 rank 将 的元素乘以gmat不同的数字。您的问题的答案是:代码将在每个等级中使用 100 MiB ,因此总共 16 x 100 MiB。

MPI 处理分布式内存——进程不共享变量,无论它们是本地变量还是全局变量。共享数据的唯一方法是使用 MPI 调用,如点对点通信(例如MPI_SEND/ MPI_RECV)、集体调用(例如MPI_BCAST)或单边通信(例如MPI_PUT/ MPI_GET)。

于 2013-09-23T13:59:33.433 回答