我制作了一个python脚本来自动部署hadoop。 xml配置文件,例如" core-site.xml",已被修改&由utf-8编码,带有python脚本。 但是hadoop无法读取这个xml文件。
这是我用脚本修改后的xml:
<?xml version='1.0' encoding='utf-8'?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://c31:9000</value>
</property>
</configuration>
这是我的python脚本:
import lxml.etree
def modify_core_site(namenode_hostname):
doc = lxml.etree.parse("pkg/core-site.xml")
root = doc.getroot()
print dir(root)
# print root.getchildren()
for child in root.iter("property"):
name = child.find("name").text
if name == "fs.default.name":
text = "hdfs://%s:9000" % namenode_hostname
child.find("value").text = text
s = lxml.etree.tostring(doc, encoding="utf-8", xml_declaration = True, pretty_print = True)
with open("pkg/core-site.xml", "w") as f:
f.write(s)
错误在哪里?有人帮忙吗?