我正在尝试使用Python boilerpipe
运行multiprocessing
。这样做是为了解析来自多个来源的RSS源。问题是它在处理一些链接后挂在其中一个线程中。如果我删除池并在循环中运行它,整个流程都有效。
这是我的多处理代码:
proc_pool = Pool(processes=4)
for each_link in data:
proc_pool.apply_async(process_link_for_feeds, args=(each_link, ), callback=store_results_to_db)
proc_pool.close()
proc_pool.join()
这是我在boilerpipe
内调用的process_link_for_feeds()
代码:
def parse_using_bp(in_url):
extracted_html = ""
if ContentParser.url_skip_p.match(in_url):
return extracted_html
try:
extractor = Extractor(extractor='ArticleExtractor', url=in_url)
extracted_html = extractor.getHTML()
del extractor
except BaseException as e:
print "Something's wrong at Boilerpipe -->", in_url, "-->", e
extracted_html = ""
finally:
return extracted_html
我对它悬挂的原因一无所知。 proc_pool
代码中有什么问题吗?
答案 0 :(得分:1)
你能尝试穿线吗?多处理基本上适用于CPU bound时。此外,samppipe已经includes protection when using threading,这表明它也可能需要多处理保护。
如果你真的需要mp,我会试着找出如何修补samppipe。
我猜这将是使用线程的替代品。它使用multiprocessing.pool.ThreadPool("fake" multiprocessing pool)。唯一的变化是从Pool(..)
到multiprocessing.pool.ThreadPool(...)
问题是我不确定套管多线程测试是否会将线程池()检测为activeCount() > 1
。
import multiprocessing
from multiprocessing.pool import ThreadPool # hidden ThreadPool class
# ...
proc_pool = ThreadPool(processes=4) # this is the only difference
for each_link in data:
proc_pool.apply_async(process_link_for_feeds, args=(each_link, ), callback=store_results_to_db)
proc_pool.close()
proc_pool.join()