我想编写python
将数据集加载为输入并对其进行分析的代码。
将有 5 个并行进程以独特的方式分析数据——每个进程将以不同的方式处理数据。
在任何处理开始之前,master
脚本(将“启动”所有不同子流程的脚本)将定义一个空列表。
我希望所有不同的进程都将它们的输出写入上述相同的列表(意思是,每个进程都将能够直接操作master
脚本中定义的列表)。
这意味着,如果process1
更改了该列表的第一个值,所有其他进程(在运行时)将看到该列表的第一个值已更改。
我感觉python
可以使用 2 个不同的模块来解决这个问题:multiprocessing
和zeroMQ
.
在这种情况下,是否有任何理由更喜欢一个与另一个?如果——而不是master
在同一台服务器上运行脚本——我将在不同(多个)服务器之间拆分进程,你的答案会改变吗?
(如果这很重要,我正在使用 a Linux
)