12

我正在尝试boilerpipe使用 Python运行multiprocessing。这样做可以解析来自多个来源的 RSS 提要。问题是它在处理一些链接后挂在其中一个线程中。如果我删除池并在循环中运行它,整个流程就可以工作。

这是我的多处理代码:

proc_pool = Pool(processes=4)
for each_link in data:
    proc_pool.apply_async(process_link_for_feeds, args=(each_link, ), callback=store_results_to_db)
proc_pool.close()
proc_pool.join()

这是我boilerpipe在内部调用的代码process_link_for_feeds()

def parse_using_bp(in_url):
    extracted_html = ""
    if ContentParser.url_skip_p.match(in_url):
        return extracted_html
    try:
        extractor = Extractor(extractor='ArticleExtractor', url=in_url)
        extracted_html = extractor.getHTML()
        del extractor
    except BaseException as e:
        print "Something's wrong at Boilerpipe -->", in_url, "-->", e
        extracted_html = ""
    finally:
        return extracted_html

我不知道它为什么挂起。proc_pool代码有问题吗?

4

1 回答 1

1

您可以尝试使用线程吗?多处理基本上适用于受CPU 限制的情况。此外,boilerpipe在使用线程时已经包含保护,这表明它在多处理中也可能需要保护。

如果你真的需要mp,我会试着弄清楚如何修补boilerpipe。

我猜这将是使用线程的直接替换。它使用 multiprocessing.pool.ThreadPool (这是一个“假”多处理池)。唯一的变化是从Pool(..)multiprocessing.pool.ThreadPool(...)问题是我不确定锅炉管多线程测试是否会将线程池()检测为具有activeCount() > 1.

import multiprocessing
from multiprocessing.pool import ThreadPool  # hidden ThreadPool class

# ...
proc_pool = ThreadPool(processes=4)  # this is the only difference
for each_link in data:
    proc_pool.apply_async(process_link_for_feeds, args=(each_link, ), callback=store_results_to_db)
proc_pool.close()
proc_pool.join()
于 2013-12-15T14:34:13.893 回答