我正在尝试为Linkedin中的Sales Navigator编写一个简单的剪贴器,这就是我要剪贴的link。它为帐户结果选择了针对特定过滤器选项的搜索结果。
我要实现的目标是检索搜索结果中的每个公司名称。检查带有公司名称的链接元素(例如:Facile.it,AGT国际)后,我看到以下js脚本,显示了 dt类名
<dt class="result-lockup__name">
<a id="ember208" href="/sales/company/2429831?_ntb=zreYu57eQo%2BSZiFskdWJqg%3D%3D" class="ember-view"> Facile.it
</a> </dt>
我基本上想检索这些名称并打开href中表示的网址。
可以注意到,所有公司名称链接都具有相同的dt类 result-lockup__name 。以下脚本试图收集搜索结果中显示的所有公司名称及其元素的列表。
from selenium import webdriver
from selenium.webdriver.common.keys import Keys
from bs4 import BeautifulSoup
import re
import pandas as pd
import os
def scrap_accounts(url):
url = "https://www.linkedin.com/sales/search/companycompanySize=E&geoIncluded=emea%3A0%2Ceurope%3A0&industryIncluded=6&keywords=AI&page=1&searchSessionId=zreYu57eQo%2BSZiFskdWJqg%3D%3D"
driver = webdriver.PhantomJS(executable_path='C:\\phantomjs\\bin\\phantomjs.exe')
#driver = webdriver.Firefox()
#driver.implicitly_wait(30)
driver.get(url)
search_results = []
search_results = driver.find_elements_by_class_name("result-lockup__name")
print(search_results)
if __name__ == "__main__":
scrap_accounts("lol")
但是,结果将打印一个空列表。我正在尝试学习抓取网页的不同部分和不同的元素,因此不确定是否正确。正确的方法是什么?
答案 0 :(得分:1)
恐怕我无法转到您关注的页面,但是我注意到您正在导入漂亮的汤,但没有使用它。
尝试:
from selenium import webdriver
from selenium.webdriver.common.keys import Keys
from bs4 import BeautifulSoup
import re
import pandas as pd
import os
url = "https://www.linkedin.com/sales/search/companycompanySize=E&geoIncluded=emea%3A0%2Ceurope%3A0&industryIncluded=6&keywords=AI&page=1&searchSessionId=zreYu57eQo%2BSZiFskdWJqg%3D%3D"
def scrap_accounts(url = url):
driver = webdriver.PhantomJS(executable_path='C:\\phantomjs\\bin\\phantomjs.exe')
#driver = webdriver.Firefox()
#driver.implicitly_wait(30)
driver.get(url)
html = driver.find_element_by_tag_name('html').get_attribute('innerHTML')
soup = BeautifulSoup(html, 'html.parser')
search_results = soup.select('dt.result-lockup__name a')
for link in search_results:
print(link.text.strip(), link['href'])