BeautifulSoup可以在Windows上找到带有lxml解析器的xml节点,但在Linux上找不到

时间:2016-09-03 06:57:29

标签: python xml

我有一个xml文件,内容如

content ="""<?xml version="1.0" ?>
<passage>
  <title>Aggrecan Turnover</title>
  <author>Winsz-Szczotka K,Kuźnik-Trocha K,Komosińska-Vassev K,Jura-Półtorak A,Olczyk K</author>
  <source>Disease markers</source>
  <description>
   xxxxxxx
  </description>
  <filename>26924871.xml</filename>
  <passage_url>http://www.ncbi.nlm.nih.gov/pubmed/26924871</passage_url>
  <received_date>2016-03-02</received_date>
  <parameter_date>2016-02-29</parameter_date>
</passage>"""

from bs4 import BeautifulSoup
soup = BeautifulSoup(content, "xml")
soup.find("author")

结果:

在Windows上:

<author>Winsz-Szczotka K,Kuźnik-Trocha K,Komosińska-Vassev K,Jura-Półtorak A,Olczyk K</author>

在Linux上

没有找到, 当我将<author>节点更改为<author>Winsz-Szczotka</author>时,它可以找到Windows和Linux的节点,那么是什么原因造成的?

此外,当我在Linux上将解析器更改为html.parser时,它运行良好,我很困惑,内容是xml格式,为什么使用html.parse工作得很好? 任何人都可以告诉我一些事情,谢谢。

0 个答案:

没有答案