我正在使用以下模式进行多处理:
for item in data:
inQ.put(item)
for i in xrange(nProcesses):
inQ.put('STOP')
multiprocessing.Process(target=worker, args=(inQ, outQ)).start()
inQ.join()
outQ.put('STOP')
for result in iter(outQ.get, 'STOP'):
# save result
哪个工作正常。但是,如果我通过 发送一个 numpy 数组outQ
,则'STOP'
不会以 结尾outQ
,导致我的结果获取循环提前终止。
这是一些重现行为的代码。
import multiprocessing
import numpy as np
def worker(inQ, outQ):
for i in iter(inQ.get, 'STOP'):
result = np.random.rand(1,100)
outQ.put(result)
inQ.task_done()
inQ.task_done() # for the 'STOP'
def main():
nProcesses = 8
data = range(1000)
inQ = multiprocessing.JoinableQueue()
outQ = multiprocessing.Queue()
for item in data:
inQ.put(item)
for i in xrange(nProcesses):
inQ.put('STOP')
multiprocessing.Process(target=worker, args=(inQ, outQ)).start()
inQ.join()
print outQ.qsize()
outQ.put('STOP')
cnt = 0
for result in iter(outQ.get, 'STOP'):
cnt += 1
print "got %d items" % cnt
print outQ.qsize()
if __name__ == '__main__':
main()
如果您将 替换为result = np.random.rand(1,100)
类似result = i*i
代码的内容,则可以按预期工作。
这里发生了什么?我在这里做一些根本错误的事情吗?我本来期望outQ.put()
afterinQ.join()
做我想做的,因为join()
直到所有进程都完成所有put()
s 之前的块。
为我工作的解决方法是使用 进行结果获取循环while outQ.qsize() > 0
,这可以找到。但我读qsize()
的不可靠。只有在不同的进程运行时才不可靠吗?qsize()
做完之后我可以依靠inQ.join()
吗?
我希望有些人建议使用multiprocessing.Pool.map()
,但是在使用 numpy 数组(ndarrays)执行此操作时,我遇到了 pickle 错误。
感谢您的关注!