在大量内核上调试我的程序时,我遇到了非常奇怪的insufficient virtual memory
. 我的调查导致代码和平,主人向每个奴隶发送小消息。然后我写了一个小程序,其中 1 个 master 简单地发送 10 个整数,MPI_SEND
所有的 slave 用MPI_RECV
. /proc/self/status
之前和之后的文件比较MPI_SEND
显示,内存大小之间的差异是巨大的!最有趣的事情(这使我的程序崩溃)是该内存不会在之后释放MPI_Send
并且仍然占用大量空间。
有任何想法吗?
System memory usage before MPI_Send, rank: 0
Name: test_send_size
State: R (running)
Pid: 7825
Groups: 2840
VmPeak: 251400 kB
VmSize: 186628 kB
VmLck: 72 kB
VmHWM: 4068 kB
VmRSS: 4068 kB
VmData: 71076 kB
VmStk: 92 kB
VmExe: 604 kB
VmLib: 6588 kB
VmPTE: 148 kB
VmSwap: 0 kB
Threads: 3
System memory usage after MPI_Send, rank 0
Name: test_send_size
State: R (running)
Pid: 7825
Groups: 2840
VmPeak: 456880 kB
VmSize: 456872 kB
VmLck: 257884 kB
VmHWM: 274612 kB
VmRSS: 274612 kB
VmData: 341320 kB
VmStk: 92 kB
VmExe: 604 kB
VmLib: 6588 kB
VmPTE: 676 kB
VmSwap: 0 kB
Threads: 3