在Timout上获取网页的网址(Python Slenium)

时间:2019-11-23 10:18:43

标签: python selenium url web-scraping timeout

我的问题是在页面超时时如何获取硒中网页的URL。 该网站尚未完全加载,但是我想在该网站完成加载之前获取URL(这永远不会发生)。 有人知道如何获取URL吗?

        chrome_options.add_argument("--headless")
        profile = {"download.default_directory": "NUL", "download.prompt_for_download": False, }
        chrome_options.add_experimental_option("prefs", profile)
        driver = webdriver.Chrome(options=chrome_options)
        driver.header_overrides = {
            'Referer': 'referer_string',
        }
        driver.set_window_position(0, 0)
        driver.set_window_size(1920, 1080)
        driver.set_page_load_timeout(5)
        driver.get(NEVERLOADINGLINK)
        a = driver.current_url
        print(a)

1 个答案:

答案 0 :(得分:0)

您可能需要使用try catch块。 Try可能会超时的代码,然后catch产生的异常。

driver = ...
# Do stuff before going to the site
driver.set_page_load_timeout(5)
try:
    driver.get("NEVERLOADINGLINK")
    print("Page loaded")
except TimeoutException:
    print("Failed to load the page:", driver.current_url)