在下面的代码中,我_py
通过使用generate_object
方法在属性内动态创建类的对象。
如果我不使用并发方法,则代码可以完美运行。但是,如果我使用来自 的并发concurrent.futures
,我不会得到想要的结果,因为错误说(除了其他事情):
_pickle.PicklingError: Can't pickle <class '__main__.Script_0_1'>: attribute lookup Script_0_1 on __main__ failed
在谷歌搜索这个错误之后,我了解到只有可腌制对象才能作为参数传递ProcessPoolExecutor.map()
,所以我决定看看如何将我的动态类变成可腌制的。
问题是这个问题的所有其他解决方案都以不同的方式创建了一个动态对象(与我在 中使用的不同_string_to_object()
)。示例:1和2
我非常希望保持现在的动态对象创建方式,因为我的很多真实代码都是基于它的,因此我正在寻找一个与下面的玩具代码一起使用的并发解决方案。
代码
import random
import codecs
import re
from concurrent.futures import ProcessPoolExecutor
import multiprocessing
class A:
def __init__(self):
self._py = r'''
class Script_{0}_{1}:
\tdef print_numbers(self):
\t\tprint('Numbers = ', {0}, 'and', {1})
'''
def generate_text(self, name_1, name_2):
py = self._py.format(name_1, name_2)
py = codecs.decode(py, 'unicode_escape')
return py
def generate_object(self, number_1, number_2):
""" Generate an object of the class inside the string self._py """
return self._string_to_object(self.generate_text(number_1, number_2))
def _string_to_object(self, str_class, *args, **kwargs):
""" Transform a program written inside str_class to an object. """
exec(str_class)
class_name = re.search("class (.*):", str_class).group(1).partition("(")[0]
return locals()[class_name](*args, **kwargs)
from functools import partial
print('Single usage')
a = A()
script = a.generate_object(1, 2)
script.print_numbers()
print('Multiprocessing usage')
n_cores = 3
n_calls = 3
def concurrent_function(args):
first_A = args[0]
second_A = args[1]
first_A.print_numbers()
second_A.print_numbers()
with ProcessPoolExecutor(max_workers=n_cores) as executor:
args = ( (A().generate_object(i, i+1), A().generate_object(i+1, i+2)) for i in range(n_calls))
results = executor.map(concurrent_function, args)