我是Python和SO的亲戚。我有一个xml文件,我需要从中提取信息。我已经在这几天苦苦挣扎了,但我想我终于找到了能够正确提取信息的东西。现在我遇到麻烦得到正确的输出。这是我的代码:
from xml import etree
node = etree.fromstring('<dataObject><identifier>5e1882d882ec530069d6d29e28944396</identifier><description>This is a paragraph about a shark.</description></dataObject>')
identifier = node.findtext('identifier')
description = node.findtext('description')
print identifier, description
我得到的结果是“5e1882d882ec530069d6d29e28944396这是一个关于鲨鱼的段落。”,这就是我想要的。
然而,我真正需要的是能够从文件而不是字符串中读取。所以我试试这段代码:
from xml import etree
node = etree.parse('test3.xml')
identifier = node.findtext('identifier')
description = node.findtext('description')
print identifier, description
现在我的结果是“无无”。我有一种感觉,我要么没有正确输出文件,要么输出有问题。这是test3.xml的内容
<?xml version="1.0" encoding="UTF-8" standalone="yes"?>
<response xmlns="http://www.eol.org/transfer/content/0.3" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:dwc="http://rs.tdwg.org/dwc/dwcore/" xmlns:dcterms="http://purl.org/dc/terms/" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns:geo="http://www.w3.org/2003/01/geo/wgs84_pos#" xmlns:dwct="http://rs.tdwg.org/dwc/terms/" xsi:schemaLocation="http://www.eol.org/transfer/content/0.3 http://services.eol.org/schema/content_0_3.xsd">
<identifier>5e1882d822ec530069d6d29e28944369</identifier>
<description>This is a paragraph about a shark.</description>
答案 0 :(得分:1)
您的XML文件使用默认命名空间。您需要使用正确的命名空间限定搜索:
identifier = node.findtext('{http://www.eol.org/transfer/content/0.3}identifier')
让ElementTree匹配正确的元素。
您还可以为.find()
,findall()
和iterfind()
方法提供显式命名空间字典。这没有记录得很好:
namespaces = {'eol': 'http://www.eol.org/transfer/content/0.3'} # add more as needed
root.findall('eol:identifier', namespaces=namespaces)
前缀仅在您传入的namespaces
参数中查找。这意味着您可以使用您喜欢的任何名称空间前缀; API拆分eol:
部分,在namespaces
字典中查找相应的命名空间URL,然后更改搜索以查找XPath表达式{http://www.eol.org/transfer/content/0.3}identifier
。
如果你可以切换到lxml
library更好的东西;该库支持相同的ElementTree API,但在元素的.nsmap
属性中为您收集名称空间。
答案 1 :(得分:0)
你有没有想过尝试使用python解析你的xml:
http://www.crummy.com/software/BeautifulSoup/bs3/documentation.html#Parsing%20XML
有一些很好的文档和健康的在线群组,所以支持非常好
A