Web Crawler - 忽略Robots.txt文件?

时间:2011-12-05 14:05:03

标签: python web-crawler mechanize robots.txt

某些服务器有一个robots.txt文件,以阻止网页抓取工具抓取他们的网站。有没有办法让网络抓取工具忽略robots.txt文件?我正在使用Mechanize for python。

2 个答案:

答案 0 :(得分:28)

mechanize的documentation有以下示例代码:

br = mechanize.Browser()
....
# Ignore robots.txt.  Do not do this without thought and consideration.
br.set_handle_robots(False)

这正是你想要的。

答案 1 :(得分:8)

This看起来像你需要的:

from mechanize import Browser
br = Browser()

# Ignore robots.txt
br.set_handle_robots( False )

但你知道你在做什么......