我正在尝试在python中为Web爬虫编写代码。我想检查我要抓取的页面是否是HTML页面而不是.pdf / .doc / .docx等页面。我不想将扩展名.html检查为asp,aspx或者像http://bing.com/travel/明确地没有.html扩展名,但它们是html页面。在python中有什么好方法吗?
答案 0 :(得分:5)
这只从服务器获取标头:
import urllib2
url = 'http://www.kernel.org/pub/linux/kernel/v3.0/testing/linux-3.7-rc6.tar.bz2'
req = urllib2.Request(url)
req.get_method = lambda: 'HEAD'
response = urllib2.urlopen(req)
content_type = response.headers.getheader('Content-Type')
print(content_type)
打印
application/x-bzip2
从中可以得出结论,这不是HTML。你可以用
'html' in content_type
以编程方式测试内容是否为HTML(或可能是XHTML)。 如果您想更确定内容是否为HTML,则可以下载内容并尝试使用lxml或BeautifulSoup等HTML解析器进行解析。
谨防使用requests.get
这样:
import requests
r = requests.get(url)
print(r.headers['content-type'])
这需要很长时间,我的网络监视器显示持续负载,让我相信这是在下载整个文件,而不仅仅是标题。
另一方面,
import requests
r = requests.head(url)
print(r.headers['content-type'])
仅获取标题。
答案 1 :(得分:3)
不要为标准库引发的问题而烦恼,而是尝试requests。
>>> import requests
>>> r = requests.get("http://www.google.com")
>>> r.headers['content-type']
'text/html; charset=ISO-8859-1'