我正在尝试boilerpipe
使用 Python运行multiprocessing
。这样做可以解析来自多个来源的 RSS 提要。问题是它在处理一些链接后挂在其中一个线程中。如果我删除池并在循环中运行它,整个流程就可以工作。
这是我的多处理代码:
proc_pool = Pool(processes=4)
for each_link in data:
proc_pool.apply_async(process_link_for_feeds, args=(each_link, ), callback=store_results_to_db)
proc_pool.close()
proc_pool.join()
这是我boilerpipe
在内部调用的代码process_link_for_feeds()
:
def parse_using_bp(in_url):
extracted_html = ""
if ContentParser.url_skip_p.match(in_url):
return extracted_html
try:
extractor = Extractor(extractor='ArticleExtractor', url=in_url)
extracted_html = extractor.getHTML()
del extractor
except BaseException as e:
print "Something's wrong at Boilerpipe -->", in_url, "-->", e
extracted_html = ""
finally:
return extracted_html
我不知道它为什么挂起。proc_pool
代码有问题吗?