使用硒通过jscript _doPostBack链接显示“下一个”搜索结果

时间:2019-03-04 03:37:34

标签: python selenium-webdriver web-scraping dopostback

在求职网站(http://jobquest.detma.org/JobQuest/Training.aspx)的搜索结果中,我想使用硒单击“下一个”链接,以便加载下一个包含20条记录的分页结果表。我只能抓到前20个结果。这是我达到目标的步骤:

第1步:我加载了开始页面。

import requests, re
from bs4 import BeautifulSoup
from selenium import webdriver

browser = webdriver.Chrome('../chromedriver')
url ='http://jobquest.detma.org/JobQuest/Training.aspx'
browser.get(url)

步骤2 :我找到了搜索按钮,然后单击它以请求没有搜索条件的搜索。使用此代码后,搜索结果页面将在表中加载前20条记录:

submit_button = browser.find_element_by_id('ctl00_ctl00_bodyMainBase_bodyMain_btnSubmit')
submit_button.click()

第3步:现在,在搜索结果页面上,我创建了一些汤和“ find_all”以获取正确的行

html = browser.page_source
soup = BeautifulSoup(html, "html.parser")

rows = soup.find_all("tr",{"class":"gvRow"})

这时,我可以使用以下行对象从结果的第一页获取数据(作业ID):

id_list=[]

for row in rows:
    temp = str(row.find("a"))[33:40]
    id_list.append(temp)

问题-步骤4 帮助!    要用下20个结果重新加载表,我必须单击结果页面上的“下一个”链接。我使用Chrome对其进行了检查,并获得了以下详细信息:

<a href="javascript:__doPostBack('ctl00$ctl00$bodyMainBase$bodyMain$egvResults$ctl01$ctl08','')">Next</a>

我需要代码以编程方式单击“下一步”,然后用下20条记录重新制作汤。我希望,如果我能解决这个问题,就可以弄清楚如何循环代码以获取数据库中的所有〜1515个ID。

更新 答案中建议的对我有用的行是:

WebDriverWait(browser, 10).until(EC.element_to_be_clickable((By.CSS_SELECTOR, '[href*=ctl08]'))).click()

谢谢,这非常有用。

1 个答案:

答案 0 :(得分:0)

您可以使用attribute = value selector定位href。在这种情况下,我将通过包含({*)运算符在末尾使用子字符串。

WebDriverWait(browser, 10).until(EC.element_to_be_clickable((By.CSS_SELECTOR, '[href*=ctl08]'))).click()

我添加了等待可点击情况作为预防措施。您可能可以删除它。

其他进口

from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.common.by import By

没有等待条件:

browser.find_element_by_css_selector('[href*=ctl08]'),click()

另一种方式:

现在,您可以首先将页面结果数设置为100(最大值),然后遍历结果页面的下拉列表以加载每个新页面(然后您无需计算多少页面) )

import requests, re
from bs4 import BeautifulSoup
from selenium import webdriver
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.common.by import By

browser = webdriver.Chrome()
url ='http://jobquest.detma.org/JobQuest/Training.aspx'
browser.get(url)
submit_button = browser.find_element_by_id('ctl00_ctl00_bodyMainBase_bodyMain_btnSubmit')
submit_button.click()
WebDriverWait(browser, 10).until(EC.element_to_be_clickable((By.CSS_SELECTOR, '[value="100"]'))).click()
html = browser.page_source
soup = BeautifulSoup(html, "html.parser")
rows = soup.find_all("tr",{"class":"gvRow"})
id_list=[]

for row in rows:
    temp = str(row.find("a"))[33:40]
    id_list.append(temp)

elems = browser.find_elements_by_css_selector('#ctl00_ctl00_bodyMainBase_bodyMain_egvResults select option')
i = 1
while i < len(elems) / 2:
    browser.find_element_by_css_selector('#ctl00_ctl00_bodyMainBase_bodyMain_egvResults select option[value="' + str(i) + '"]').click()
    #do stuff with new page
    i+=1

您可以决定如何从每个页面提取行信息。这是为您提供了一个循环所有页面的简单框架。