在scrapy / python中单击html表单按钮到下一页

时间:2016-02-02 15:33:59

标签: python html scrapy

我已经在scrapy中编写了一个蜘蛛来从网站中提取数据。我有一个带有类似结构的html表的链接列表,到目前为止这些工作的提取很好。现在的问题是这些表中的一些表在多个页面上运行,即如果数据集超过30行,则将其拆分。大多数表只有一页,但有些表相当长,最多70页。通过按下"下一页"到达下一页。按钮形式的html表单。我希望蜘蛛去每个表,从第一页提取数据,然后进入第二页,第三页等,直到没有" next"按钮,然后继续使用下一个原始网址。

据我所知,我需要的可能是form_request命令,但我对这些事情不熟悉,我在网上找到的所有示例结构都略有不同,所以非常感谢帮助。

这是我的代码,它提取每个表的第一页。

from scrapy.spiders import BaseSpider
from scrapy.selector import HtmlXPathSelector
from example.items import exitem
from scrapy.http import FormRequest

class MySpider(BaseSpider):
    name = "example"

    with open('linklist.txt') as f:
        start_urls = f.readlines()

    def parse(self, response):
        hxs = HtmlXPathSelector(response)
        main = hxs.xpath("/html/body/table[2]/tr/td[2]/table/tr/td/table[1]/tr[1]/td[1]/table")
        titles = hxs.xpath("/html/body/table[2]/tr/td[2]/table/tr/td/table[1]/tr[2]/td/table/tr")
        items = []
        for titles in titles:
            item = exitem()
            item["pid"] = titles.xpath("td[2]/font/text()").extract()
            item["famname"] = titles.xpath("td[3]/font/b/text()").extract()
            item["firstname"] = titles.xpath("td[4]/font/text()").extract()
            item["sex"] = titles.xpath("td[5]/font/text()").extract()
            item["age"] = titles.xpath("td[6]/font/text()").extract()
            item["famstat"] = titles.xpath("td[7]/font/text()").extract()
            item["res"] = titles.xpath("td[8]/font/text()").extract()
            item["nation"] = titles.xpath("td[9]/font/text()").extract()
            item["state"] = titles.xpath("td[10]/font/text()").extract()
            item["job"] = titles.xpath("td[11]/font/text()").extract()
        return(items)

这是网站上的表格:

<form action="http://example.com/listen.php" method="get">
    <input type="submit" value="next sheet" name="">
    <input type="hidden" value="1234567" name="ArchivIdent">
    <input type="hidden" value="31" name="start">
</form>

&#34;开始&#34;第二页的值为31,第三页的值为61,第四页的值为91等。

1 个答案:

答案 0 :(得分:1)

from selenium import web driver  
driver = webdriver.Firefox()
driver.get("your page")
try:  
  driver.findElement(By.xpath("//*[@type='submit'][@value='next']")).click() 
except:
  pass
continue with your program 

一旦找不到该按钮,它将不再尝试。然后继续您的程序

希望这会有所帮助。