我正在尝试在美国银行的网站上刮擦信用卡的产品名称,但是即使我只是尝试导航至所需的div,也不会返回任何内容。
如果我可以导航到本节,我想我可以找出find_all和其他所有内容,以打印出我需要的内容。
from bs4 import BeautifulSoup
import requests
source = requests.get('https://www.bankofamerica.com/credit-
cards/#filter').text
soup = BeautifulSoup(source, 'lxml')
ProductCard = soup.find('div', className_='small-12 medium-9 columns')
print (ProductCard)
我希望我的代码返回
中的所有内容我看到的是“无”。我确认已经安装了BeautifulSoup和lxml。