我正在尝试在网页上的特定“输入”标记中提取单个“值”属性的内容。我使用以下代码:
import urllib
f = urllib.urlopen("http://58.68.130.147")
s = f.read()
f.close()
from BeautifulSoup import BeautifulStoneSoup
soup = BeautifulStoneSoup(s)
inputTag = soup.findAll(attrs={"name" : "stainfo"})
output = inputTag['value']
print str(output)
我得到一个TypeError:列表索引必须是整数,而不是str
即使从Beautifulsoup文档我明白字符串不应该是一个问题...但我不是专家,我可能会误解。
非常感谢任何建议! 提前谢谢。
答案 0 :(得分:105)
.findAll()
返回所有找到的元素的列表,所以:
inputTag = soup.findAll(attrs={"name" : "stainfo"})
inputTag
是一个列表(可能只包含一个元素)。根据您的具体需要,您应该这样做:
output = inputTag[0]['value']
或使用.find()
方法,该方法只返回一个(第一个)找到的元素:
inputTag = soup.find(attrs={"name": "stainfo"})
output = inputTag['value']
答案 1 :(得分:5)
在Python 3.x
中,只需在使用get(attr_name)
的代码对象上使用find_all
:
xmlData = None
with open('conf//test1.xml', 'r') as xmlFile:
xmlData = xmlFile.read()
xmlDecoded = xmlData
xmlSoup = BeautifulSoup(xmlData, 'html.parser')
repElemList = xmlSoup.find_all('repeatingelement')
for repElem in repElemList:
print("Processing repElem...")
repElemID = repElem.get('id')
repElemName = repElem.get('name')
print("Attribute id = %s" % repElemID)
print("Attribute name = %s" % repElemName)
针对XML文件conf//test1.xml
,如下所示:
<?xml version="1.0" encoding="UTF-8" standalone="yes"?>
<root>
<singleElement>
<subElementX>XYZ</subElementX>
</singleElement>
<repeatingElement id="11" name="Joe"/>
<repeatingElement id="12" name="Mary"/>
</root>
打印:
Processing repElem...
Attribute id = 11
Attribute name = Joe
Processing repElem...
Attribute id = 12
Attribute name = Mary
答案 2 :(得分:4)
如果您想从上面的源中检索多个属性值,可以使用findAll
和列表推导来获得所需的一切:
import urllib
f = urllib.urlopen("http://58.68.130.147")
s = f.read()
f.close()
from BeautifulSoup import BeautifulStoneSoup
soup = BeautifulStoneSoup(s)
inputTags = soup.findAll(attrs={"name" : "stainfo"})
### You may be able to do findAll("input", attrs={"name" : "stainfo"})
output = [x["stainfo"] for x in inputTags]
print output
### This will print a list of the values.
答案 3 :(得分:1)
假设您知道哪种标签具有这些属性,我实际上会建议您节省时间。
假设标签xyz有一个名为“staininfo”的attritube ..
full_tag = soup.findAll("xyz")
我想你不明白full_tag是一个列表
for each_tag in full_tag:
staininfo_attrb_value = each_tag["staininfo"]
print staininfo_attrb_value
因此,您可以获取所有标签xyz
的staininfo的所有attrb值答案 4 :(得分:1)
你也可以用这个:
import requests
from bs4 import BeautifulSoup
import csv
url = "http://58.68.130.147/"
r = requests.get(url)
data = r.text
soup = BeautifulSoup(data, "html.parser")
get_details = soup.find_all("input", attrs={"name":"stainfo"})
for val in get_details:
get_val = val["value"]
print(get_val)
答案 5 :(得分:1)
对我来说
<input id="color" value="Blue"/>
可以通过以下代码段获取。
page = requests.get("https://www.abcd.com")
soup = BeautifulSoup(page.content, 'html.parser')
colorName = soup.find(id='color')
print(color['value'])
答案 6 :(得分:0)
我在Beautifulsoup 4.8.1中使用它来获取某些元素的所有类属性的值:
from bs4 import BeautifulSoup
html = "<td class='val1'/><td col='1'/><td class='val2' />"
bsoup = BeautifulSoup(html, 'html.parser')
for td in bsoup.find_all('td'):
if td.has_attr('class'):
print(td['class'][0])
请务必注意,即使属性只有一个值,属性键也会检索列表。
答案 7 :(得分:0)
您可以尝试使用名为 requests_html 的新功能强大的软件包:
from requests_html import HTMLSession
session = HTMLSession()
r = session.get("https://www.bbc.co.uk/news/technology-54448223")
date = r.html.find('time', first = True) # finding a "tag" called "time"
print(date) # you will have: <Element 'time' datetime='2020-10-07T11:41:22.000Z'>
# To get the text inside the "datetime" attribute use:
print(date.attrs['datetime']) # you will get '2020-10-07T11:41:22.000Z'
答案 8 :(得分:0)
您可以尝试gazpacho:
使用pip install gazpacho
获取HTML并使用以下内容制作Soup
:
from gazpacho import get, Soup
soup = Soup(get("http://ip.add.ress.here/")) # get directly returns the html
inputs = soup.find('input', attrs={'name': 'stainfo'}) # Find all the input tags
if inputs:
if type(inputs) is list:
for input in inputs:
print(input.attr.get('value'))
else:
print(inputs.attr.get('value'))
else:
print('No <input> tag found with the attribute name="stainfo")
答案 9 :(得分:-1)
下面是一个示例,说明如何提取所有href
标签的a
属性:
import requests as rq
from bs4 import BeautifulSoup as bs
url = "http://www.cde.ca.gov/ds/sp/ai/"
page = rq.get(url)
html = bs(page.text, 'lxml')
hrefs = html.find_all("a")
all_hrefs = []
for href in hrefs:
# print(href.get("href"))
links = href.get("href")
all_hrefs.append(links)
print(all_hrefs)