4

我正在使用 pathos.multiprocessing 来并行化需要使用实例方法的程序。这是一个最小的工作示例:

import time
import numpy as np
from pathos.multiprocessing import Pool, ProcessingPool, ThreadingPool

class dummy(object):
    def __init__(self, arg, key1=None, key2=-11):

        np.random.seed(arg)

        randnum = np.random.randint(0, 5)

        print 'Sleeping {} seconds'.format(randnum)
        time.sleep(randnum)

        self.value = arg
        self.more1 = key1
        self.more2 = key2

args = [0, 10, 20, 33, 82] 
keys = ['key1', 'key2']
k1val = ['car', 'borg', 'syria', 'aurora', 'libera']
k2val = ['a', 'b', 'c', 'd', 'e']
allks = [dict(zip(keys, [k1val[i], k2val[i]])) for i in range(5)]

pool = ThreadingPool(4)
result = pool.map(dummy, args, k1val, k2val)

print [[r.value, r.more1, r.more2] for r in result]

打印的结果是(如预期的那样):

Sleeping 4 seconds
Sleeping 1 seconds
Sleeping 3 seconds
Sleeping 4 seconds
Sleeping 3 seconds
[[0, 'car', 'a'], [10, 'borg', 'b'], [20, 'syria', 'c'], [33, 'aurora', 'd'], [82, 'libera', 'e']]

但是,在此调用中map最后两个参数的顺序很重要,如果我这样做:

result2 = pool.map(dummy, args, k2val, k1val)

我得到:

[[0, 'a', 'car'], [10, 'b', 'borg'], [20, 'c', 'syria'], [33, 'd', 'aurora'], [82, 'e', 'libera']]

而我想获得与第一个结果相同的结果。apply_async kwds该行为与标准模块中的行为相同multiprocessing,即传递一个字典列表,其中每个字典中的键是关键字名称,项是关键字参数(请参阅 参考资料allks)。请注意,标准模块multiprocessing不能使用实例方法,因此甚至不能满足最低要求。

暂定为: result = pool.map(dummy, args, kwds=allks) # 这不起作用

4

1 回答 1

8

我是pathos作者。是的,你碰到了我知道需要一点工作的东西。目前, , 和 中的and ( mapie pipe)apply方法不能采用- 您必须将它们作为. 但是,如果您使用or ,那么您可以传递给他们的and方法。以下划线开头的池实际上直接来自,因此它们具有与中相同的 API (但具有更好的序列化,因此可以传递类方法等)。ProcessPoolThreadPoolParallelPoolkwdsargs_ProcessPool_ThreadPoolkwdsmapapplypathos.poolsmultiprocessmultiprocessing

>>> from pathos.pools import _ProcessPool
>>> from multiprocess.pool import Pool
>>> Pool is _ProcessPool
True

因此,对于原始代码的编辑看起来像这样(来自 OP 建议的编辑):

>>> from pathos.pools import _ThreadPool
>>> pool = _ThreadPool(4)
>>> 
[…]
>>> result = []
>>> def callback(x):
>>>    result.append(x)
>>>
>>> for a, k in zip(args, allks):
>>>     pool.apply_async(dummy, args=(a,), kwds=k, callback=callback)
>>> 
>>> pool.close()
>>> pool.join()
于 2016-09-28T20:55:36.267 回答