用Python抓取ASPX页面

时间:2020-07-25 05:19:53

标签: python web-scraping

我正在尝试为aspx站点换码。我的脚本刚刚产生:

[]

以退出代码0结束的过程

我的代码如下:

import requests
import bs4



url = "https://www.brightmlshomes.com/Listing/ListingSearch.aspx"

page = requests.get(url)

src = page.text

soup = bs4.BeautifulSoup(src, 'lxml')

final_results = []

for tmp in soup.find_all('div', {'class': 'mapsearch-singleprop mapsearch-map-singleprop included '
                                         'slick-already-processed'}):

    final_results.append(tmp['data-price'])

print(final_results)

因为它是ASPX页面,所以这不起作用吗?

1 个答案:

答案 0 :(得分:0)

成为ASPX页面不会有什么不同,因为基础页面源仍为html。话虽这么说,您可能应该在html.parser构造函数中使用lxml而不是BeautifulSoup

该脚本未返回任何结果的原因是,页面源html中没有匹配您在find_all函数中指定的类。您应该查看页面源代码,以确定要使用的正确关键字。