我有一个任务要在 Python 中完成 X 次,我将使用 LSF 来加快速度。提交一份包含多个可以并行单独运行的 Python 脚本的作业,还是提交一个使用多处理器模块的 Python 脚本更好?
我的问题是我不相信 LSF 知道如何将 Python 代码拆分为多个进程(我不确定 LSF 是如何做到的)。但是,我也不希望有几个 Python 脚本四处飘荡,因为这看起来效率低下且杂乱无章。
手头的任务涉及解析六个非常大的 ASCII 文件并将输出保存在 Python dict 中以备后用。我想并行解析这六个文件(每个文件大约需要 3 分钟)。LSF 是否允许 Python 告诉它类似“嘿,这是一个脚本,但你要把它分成这六个进程”?LSF 是否需要Python 来告诉它,还是它已经知道如何做到这一点?
如果您需要更多信息,请告诉我。我很难在“刚刚好”和“太多”的背景之间取得平衡。