当使用 Pool.apply_async 运行大量任务(大参数)时,进程被分配并进入等待状态,等待进程的数量没有限制。这可能最终会吃掉所有内存,如下例所示:
import multiprocessing
import numpy as np
def f(a,b):
return np.linalg.solve(a,b)
def test():
p = multiprocessing.Pool()
for _ in range(1000):
p.apply_async(f, (np.random.rand(1000,1000),np.random.rand(1000)))
p.close()
p.join()
if __name__ == '__main__':
test()
我正在寻找一种限制等待队列的方法,即只有有限数量的等待进程,并且 Pool.apply_async 在等待队列已满时被阻塞。