我目前正致力于通过OpenStreetMaps省/州转储创建Pythonic解析方式;据我所知,只知道如何处理非常大的XML文件(对吧?)。
我目前正在使用lxml etree iterparse模块来解析dumps for the Province of Quebec(quebec-latest.osm.bz2)。我想拉出任何有高速公路信息的条目,转换为JSON,将其保存到文件,并刷新,但它似乎不起作用。
我目前正在运行i7-4770,16GB内存,128GB SSD和OSX 10.9。当我启动下面的代码时,我的RAM会在几秒钟内完全填满,并在30秒内完成交换。之后我的系统会要求我关闭申请以腾出空间,或最终冻结。
这是我的代码;你会注意到那里很可能有很多糟糕的/加密代码,但是我已经到了能够插入任何我能找到的东西的地步,希望它可以工作。非常感谢任何帮助。谢谢!
#!/usr/bin/env python
# -*- coding: utf-8 -*-
from lxml import etree
import xmltodict, json, sys, os, gc
hwTypes = ['motorway', 'trunk', 'primary', 'secondary', 'tertiary', 'pedestrian', 'unclassified', 'service']
#Enable Garbadge Collection
gc.enable()
def processXML(tagType):
f = open('quebecHighways.json', 'w')
f.write('[')
print 'Processing '
for event, element in etree.iterparse('quebec-latest.osm', tag=tagType):
data = etree.tostring(element)
data = xmltodict.parse(data)
keys = data[tagType].keys()
if 'tag' in keys:
if isinstance(data[tagType]['tag'], dict):
if data[tagType]['tag']['@k'] == 'highway':
if data[tagType]['tag']['@v'] in hwTypes:
f.write(json.dumps(data)+',')
f.flush() #Flush Python
os.fsync(f.fileno()) #Flush System
gc.collect() #Garbadge Collect
else:
for y in data[tagType]['tag']:
if y['@k'] == 'highway':
if y['@v'] in hwTypes:
f.write(json.dumps(data)+',')
f.flush()
os.fsync(f.fileno())
gc.collect()
break
#Supposedly there is supposed to help clean my RAM.
element.clear()
while element.getprevious() is not None:
del element.getparent()[0]
f.write(']')
f.close()
return 0
processXML('way')
答案 0 :(得分:0)
库xmltodict
存储在内存中生成的字典,因此如果您的数据字典很大,那么这样做并不是一个好主意。仅使用iterparse
会更有效。
另一种选择可能是使用xmltodict提供的流媒体可能性。有关http://omz-software.com/pythonista/docs/ios/xmltodict.html的更多信息。
答案 1 :(得分:0)
我会说你的生活比必要的更复杂。您实际上反复将整个子树转储到xmltodict
并使其一次又一次地解析整个子树。
如果我是你,我会转移xmltodict
,坐在你身后,阅读一两个教程,然后使用标准的东西:xml.sax
(如果你真的那么难不需要太多的跳跃;只需要处理converting Bible)或iterparse
并使用它。它真的不那么复杂。