来自网站的Scrape,它有CloudFlare(BeautifulSoup,Request)

时间:2017-07-26 17:50:42

标签: python beautifulsoup

我无法从使用CloudFlare的网站上抓取数据。 我总是得到urllib.error.HTTPError:HTTP错误503:服务暂时不可用 你能告诉我通过CloudFlare保护的方法吗?

from bs4 import BeautifulSoup
from urllib.request import Request, urlopen
#Website url was changed to ####, because it is secret
url = '#######'
hdr = {'User-Agent': 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.11 (KHTML, like Gecko) Chrome/23.0.1271.64 Safari/537.11',
   'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
   'Accept-Charset': 'ISO-8859-1,utf-8;q=0.7,*;q=0.3',
   'Accept-Encoding': 'none',
   'Accept-Language': 'en-US,en;q=0.8',
   'Connection': 'keep-alive'}

req = Request(url,headers=hdr)
page = urlopen(req)
soup = BeautifulSoup(page, "lxml")

print(soup)

请你解释我的每一步,

1 个答案:

答案 0 :(得分:0)

即使urllib没有,请求也会有效。

import requests
import bs4
url = ... a secret
page = requests.get(url).content
soup = bs4.BeautifulSoup(page, 'lxml')

如果这不起作用,那么我会尝试 selenium 。在StackOverflow上有很多如何使用它的例子。我无法提供建议,因为我没有您想要使用的网址。