我经常需要从网站下载pdf,但有时候它们不在同一页面上。 他们将链接划分为分页,我必须点击每一页获取链接。
我正在学习python,我想编写一些脚本,我可以将weburl放入其中,并从该网站提取pdf链接。
我是python的新手,所以任何人都可以给我指示我该怎么做
答案 0 :(得分:7)
使用urllib2
,urlparse
和lxml
非常简单。因为你是Python的新手,我已经更加冗长地评论了一些事情:
# modules we're using (you'll need to download lxml)
import lxml.html, urllib2, urlparse
# the url of the page you want to scrape
base_url = 'http://www.renderx.com/demos/examples.html'
# fetch the page
res = urllib2.urlopen(base_url)
# parse the response into an xml tree
tree = lxml.html.fromstring(res.read())
# construct a namespace dictionary to pass to the xpath() call
# this lets us use regular expressions in the xpath
ns = {'re': 'http://exslt.org/regular-expressions'}
# iterate over all <a> tags whose href ends in ".pdf" (case-insensitive)
for node in tree.xpath('//a[re:test(@href, "\.pdf$", "i")]', namespaces=ns):
# print the href, joining it to the base_url
print urlparse.urljoin(base_url, node.attrib['href'])
结果:
http://www.renderx.com/files/demos/examples/Fund.pdf
http://www.renderx.com/files/demos/examples/FundII.pdf
http://www.renderx.com/files/demos/examples/FundIII.pdf
...
答案 1 :(得分:0)
如果有很多带有链接的页面,您可以尝试优秀的框架 - Scrapy(http://scrapy.org/)。 很容易理解如何使用它,并可以下载所需的pdf文件。
答案 2 :(得分:0)
通过电话,也许它不是非常易读
如果您打算从网站上查看所有静态页面或其他内容。您可以通过请求
轻松抓取HTMLimport requests
page_content=requests.get(url)
但是,如果你抓住一些通信网站的东西。会有一些反对的方法。(如何打破这些吵闹的事情将成为问题)
Frist way:让您的请求更像浏览器(人类)。 添加标题(您可以使用Chrome或Fiddle的开发工具来复制标题) 制作正确的帖子形式。这个应该复制你通过浏览器发布表单的方式。 获取cookie,并将其添加到请求
第二种方式。使用selenium和浏览器驱动程序。 Selenium将使用真正的浏览器驱动程序(像我一样,我使用chromedriver) 记得在路径中添加chromedriver 或使用代码加载driver.exe 驱动= WebDriver.Chrome(路径) 不确定此设置代码
driver.get(URL) 它是通过浏览器浏览网址,因此它将减少抓取内容的难度
获取网页 页= driver.page_soruces
有些网站会跳几页。这会导致一些错误。让您的网站等待某些元素显示。尝试: certain_element = ExpectedConditions.presenceOfElementLocated(By.id,&#39; youKnowThereIsAElement&#39; SID) WebDriverWait(certain_element)
或使用implict等待:等待你喜欢的时间
driver.manage()。timeouts()。implicitlyWait(5,TimeUnit.SECONDS)
您可以通过WebDriver控制网站。这里不打算描述。您可以搜索模块。