3

我正在尝试通过多处理使用类方法并行化代码。基本结构如下:

# from multiprocessing import Pool
from pathos.multiprocessing import ProcessingPool as Pool

class myclass(object):
    def __init__(self):
        #some code
    def mymethod(self):
        #more code
        return another_instance_of_myclass



def myfunc(myinstance,args):
    #some code   
    test=myinstance.mymethod()
    #more code
    return myresult #not an instance,just a number

p=Pool()

result = p.map(myfunc,listwithdata)

在正常的多处理失败后,我开始意识到 Pickle 和多处理的问题,因此我尝试使用 multiprocessing.pathos 解决它。但是,我仍然得到

PicklingError: Can't pickle <type 'SwigPyObject'>: it's not found as__builtin__.SwigPyObjec

以及 pickle.py 中的许多错误。除了这个实际问题之外,我不太明白为什么除了 myfunc 的最终结果之外的任何东西都被腌制了。

4

2 回答 2

2

pathos使用dill, 和dill序列化类与 python 的pickle模块不同。 pickle通过引用序列化类。dill(默认情况下)直接序列化类,并且只能通过引用选择。

>>> import dill
>>> 
>>> class Foo(object):
...   def __init__(self, x):
...     self.x = x
...   def bar(self, y):
...     return self.x + y * z
...   z = 1
... 
>>> f = Foo(2)
>>> 
>>> dill.dumps(f)  # the dill default, explicitly serialize a class
'\x80\x02cdill.dill\n_create_type\nq\x00(cdill.dill\n_load_type\nq\x01U\x08TypeTypeq\x02\x85q\x03Rq\x04U\x03Fooq\x05h\x01U\nObjectTypeq\x06\x85q\x07Rq\x08\x85q\t}q\n(U\r__slotnames__q\x0b]q\x0cU\n__module__q\rU\x08__main__q\x0eU\x03barq\x0fcdill.dill\n_create_function\nq\x10(cdill.dill\n_unmarshal\nq\x11Uyc\x02\x00\x00\x00\x02\x00\x00\x00\x03\x00\x00\x00C\x00\x00\x00s\x0f\x00\x00\x00|\x00\x00j\x00\x00|\x01\x00t\x01\x00\x14\x17S(\x01\x00\x00\x00N(\x02\x00\x00\x00t\x01\x00\x00\x00xt\x01\x00\x00\x00z(\x02\x00\x00\x00t\x04\x00\x00\x00selft\x01\x00\x00\x00y(\x00\x00\x00\x00(\x00\x00\x00\x00s\x07\x00\x00\x00<stdin>t\x03\x00\x00\x00bar\x04\x00\x00\x00s\x02\x00\x00\x00\x00\x01q\x12\x85q\x13Rq\x14c__builtin__\n__main__\nh\x0fNN}q\x15tq\x16Rq\x17U\x01zq\x18K\x01U\x07__doc__q\x19NU\x08__init__q\x1ah\x10(h\x11Uuc\x02\x00\x00\x00\x02\x00\x00\x00\x02\x00\x00\x00C\x00\x00\x00s\r\x00\x00\x00|\x01\x00|\x00\x00_\x00\x00d\x00\x00S(\x01\x00\x00\x00N(\x01\x00\x00\x00t\x01\x00\x00\x00x(\x02\x00\x00\x00t\x04\x00\x00\x00selfR\x00\x00\x00\x00(\x00\x00\x00\x00(\x00\x00\x00\x00s\x07\x00\x00\x00<stdin>t\x08\x00\x00\x00__init__\x02\x00\x00\x00s\x02\x00\x00\x00\x00\x01q\x1b\x85q\x1cRq\x1dc__builtin__\n__main__\nh\x1aNN}q\x1etq\x1fRq utq!Rq")\x81q#}q$U\x01xq%K\x02sb.'
>>> dill.dumps(f, byref=True)  # the pickle default, serialize by reference
'\x80\x02c__main__\nFoo\nq\x00)\x81q\x01}q\x02U\x01xq\x03K\x02sb.'

不通过引用进行序列化要灵活得多。但是,在极少数情况下,使用引用会更好(就像在腌制构建在 a 上的东西时那样SwigPyObject)。

我一直打算(大约 2 年)将byref标志暴露dump给 内部的调用pathos,但还没有这样做。这样做应该是一个相当简单的编辑。我刚刚添加了一张票:https ://github.com/uqfoundation/pathos/issues/58 。虽然我在这里,它也应该很容易打开替换使用的dumpload函数pathos……这样你就可以使用定制的序列化程序(即扩展那些dill提供的序列化程序,或使用其他一些序列化程序)。

于 2015-03-18T17:42:46.800 回答
1

在多处理函数中,进程间通信需要序列化。Pickle 在这方面做得不好,而是通过 pip安装dill 。详细信息(带有一个很好的星际迷航示例)可以在这里找到:http: //matthewrocklin.com/blog/work/2013/12/05/Parallelism-and-Serialization/

于 2015-03-18T13:14:16.730 回答