我有一个使用多重处理的简单Web抓取脚本。我希望用户选择要抓取的excel文件,因此一开始使用input()
。
没有多处理代码,脚本可以正常运行(尽管它一次处理一个链接)。使用多处理代码,脚本会无限期挂起。即使我没有在脚本中使用从input()
收集的字符串,也是如此,因此看来input()
的存在确实导致脚本在存在多处理的情况下挂起。>
我不知道为什么会这样。真心感谢任何见识。
代码:
os.chdir(os.path.curdir)
# excel_file_name_b is not used in the script at all, but because
# it exists, the script hangs. Ideally I want to keep input() in the script
excel_file_name_b = input()
excel_file_name = "URLs.xlsx"
excel_file = openpyxl.load_workbook(excel_file_name)
active_sheet = excel_file.active
rows = active_sheet.max_row
for i in range(2,rows+1,1):
list.append(active_sheet.cell(row=i,column=1).value)
headers = {"User-Agent":'Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.115 Safari/537.36',"Accept-Language": 'en-GB'}
def scrape(url):
try:
res = get(url, headers = headers)
html_soup = BeautifulSoup(res.text, 'lxml')
html_element = html_soup.select('._3pvwV0k')
return res.url, html_element[0].getText()
except:
return res.url, "Not found or error"
pass
if __name__ == '__main__':
p = Pool(10)
scrape_return = p.map(scrape, list)
for k in range(len(scrape_return)):
try:
active_sheet.cell(row=k+2, column=2).value = scrape_return[k][0]
active_sheet.cell(row=k+2, column=3).value = scrape_return[k][1]
except:
continue
excel_file.save(excel_file_name)
答案 0 :(得分:2)
由于您的input()
在模块级别,因此每个进程都将其调用以使其可供该进程使用。
多处理会关闭stdin,这是导致每个错误的原因。 [docs]
如果将其移至if __name__ == '__main__':
,就不会再有问题了。
编辑:将代码重新格式化为类似于以下内容的代码可能会解决其他问题,使其无法达到预期的效果。
def scrape(url):
headers = {"User-Agent":'Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.115 Safari/537.36',"Accept-Language": 'en-GB'}
try:
res = get(url, headers=headers)
html_soup = BeautifulSoup(res.text, 'lxml')
html_element = html_soup.select('._3pvwV0k')
return res.url, html_element[0].getText()
except:
return res.url, "Not found or error"
pass
def main():
excel_file_name_b = input()
excel_file_name = "URLs.xlsx"
excel_file = openpyxl.load_workbook(excel_file_name)
active_sheet = excel_file.active
rows = active_sheet.max_row
for i in range(2,rows+1,1):
list.append(active_sheet.cell(row=i,column=1).value) # rename this object, list is a keyword
p = Pool(10)
scrape_return = p.map(scrape, list) # rename here too
for k in range(len(scrape_return)):
try:
active_sheet.cell(row=k+2, column=2).value = scrape_return[k][0]
active_sheet.cell(row=k+2, column=3).value = scrape_return[k][1]
except:
continue
excel_file.save(excel_file_name)
if __name__ == '__main__':
main()