我有很多作业要运行,比如说 100 个。它们可以并行运行,但每个都占用大量内存,所以我只能同时运行 8 个。
我目前有这个shell脚本:
(
(python run.py $arg1 &)
(python run.py $arg2 &)
(python run.py $arg3 &)
(python run.py $arg4 &)
(python run.py $arg5 &)
(python run.py $arg6 &)
(python run.py $arg7 &)
(python run.py $arg8 &)
) 2>&1 | cat -u
(
(python run.py $arg9 &)
(python run.py $arg10 &)
(python run.py $arg11 &)
(python run.py $arg12 &)
(python run.py $arg13 &)
(python run.py $arg14 &)
(python run.py $arg15 &)
(python run.py $arg16 &)
) 2>&1 | cat -u
...
这有运行第一批8个的效果,当它们都完成后,它开始下一批8个。问题是每个作业的运行时间不是恒定的,有些比其他作业先完成,所以它是对于每批 8 个要完成的重量来说,这并不是最佳的,因为我实际上正在等待 8 个中最慢的一个完成。
相反,我想要一个脚本(shell 或 python)来运行我所有的 100 个作业,在任何给定时间并行运行 8 个作业,以实现最佳效率。
关于实现这一目标的任何想法?