使用dt类名称selenium python打印元素

时间:2019-03-12 16:59:38

标签: python selenium web-scraping beautifulsoup

我正在尝试为Linkedin中的Sales Navigator编写一个简单的剪贴器,这就是我要剪贴的link。它为帐户结果选择了针对特定过滤器选项的搜索结果。

我要实现的目标是检索搜索结果中的每个公司名称。检查带有公司名称的链接元素(例如:Facile.it,AGT国际)后,我看到以下js脚本,显示了 dt类名

    <dt class="result-lockup__name">
    <a id="ember208" href="/sales/company/2429831?_ntb=zreYu57eQo%2BSZiFskdWJqg%3D%3D" class="ember-view">  Facile.it

    </a>    </dt>

我基本上想检索这些名称并打开href中表示的网址。

可以注意到,所有公司名称链接都具有相同的dt类 result-lockup__name 。以下脚本试图收集搜索结果中显示的所有公司名称及其元素的列表。

    from selenium import webdriver
    from selenium.webdriver.common.keys import Keys
    from bs4 import BeautifulSoup
    import re
    import pandas as pd
    import os

    def scrap_accounts(url):

        url = "https://www.linkedin.com/sales/search/companycompanySize=E&geoIncluded=emea%3A0%2Ceurope%3A0&industryIncluded=6&keywords=AI&page=1&searchSessionId=zreYu57eQo%2BSZiFskdWJqg%3D%3D"
        driver = webdriver.PhantomJS(executable_path='C:\\phantomjs\\bin\\phantomjs.exe')
        #driver = webdriver.Firefox()
        #driver.implicitly_wait(30)
        driver.get(url)

        search_results = []
        search_results = driver.find_elements_by_class_name("result-lockup__name")
        print(search_results)

    if __name__ == "__main__":

        scrap_accounts("lol")

但是,结果将打印一个空列表。我正在尝试学习抓取网页的不同部分和不同的元素,因此不确定是否正确。正确的方法是什么?

1 个答案:

答案 0 :(得分:1)

恐怕我无法转到您关注的页面,但是我注意到您正在导入漂亮的汤,但没有使用它。

尝试:

from selenium import webdriver
from selenium.webdriver.common.keys import Keys
from bs4 import BeautifulSoup
import re
import pandas as pd
import os

url = "https://www.linkedin.com/sales/search/companycompanySize=E&geoIncluded=emea%3A0%2Ceurope%3A0&industryIncluded=6&keywords=AI&page=1&searchSessionId=zreYu57eQo%2BSZiFskdWJqg%3D%3D"

def scrap_accounts(url = url):

    driver = webdriver.PhantomJS(executable_path='C:\\phantomjs\\bin\\phantomjs.exe')
    #driver = webdriver.Firefox()
    #driver.implicitly_wait(30)
    driver.get(url)

    html = driver.find_element_by_tag_name('html').get_attribute('innerHTML')

    soup = BeautifulSoup(html, 'html.parser')
    search_results = soup.select('dt.result-lockup__name a')
    for link in search_results:
        print(link.text.strip(), link['href'])