我有一个大型XML文件(大约10K行)我需要定期解析这种格式:
<summarysection>
<totalcount>10000</totalcount>
</summarysection>
<items>
<item>
<cat>Category</cat>
<name>Name 1</name>
<value>Val 1</value>
</item>
...... 10,000 more times
</items>
我想要做的是使用nokogiri解析每个节点,以计算一个类别中的项目数量。然后,我想从total_count中减去这个数字,得到一个输出为“Count of Interest_Category:n,Count of All Else:z”。
这是我现在的代码:
#!/usr/bin/ruby
require 'rubygems'
require 'nokogiri'
require 'open-uri'
icount = 0
xmlfeed = Nokogiri::XML(open("/path/to/file/all.xml"))
all_items = xmlfeed.xpath("//items")
all_items.each do |adv|
if (adv.children.filter("cat").first.child.inner_text.include? "partofcatname")
icount = icount + 1
end
end
othercount = xmlfeed.xpath("//totalcount").inner_text.to_i - icount
puts icount
puts othercount
这似乎有效,但速度很慢!对于10,000件物品,我说的时间超过10分钟。有一个更好的方法吗?我是以不太理想的方式做事吗?
答案 0 :(得分:23)
这是一个将SAX解析器计数与基于DOM的计数进行比较的示例,使用七个类别之一计算500,000 <item>
个。首先,输出:
创建XML文件:1.7s
通过SAX计算:12.9s
创建DOM:1.6s
通过DOM计算:2.5s
这两种技术都会产生相同的哈希值,计算每个类别的数量:
{"Cats"=>71423, "Llamas"=>71290, "Pigs"=>71730, "Sheep"=>71491, "Dogs"=>71331, "Cows"=>71536, "Hogs"=>71199}
SAX版本需要12.9秒才能进行计数和分类,而DOM版本只需1.6秒即可创建DOM元素,需要2.5秒才能查找和分类所有<cat>
值。 DOM版本大约快3倍!
......但这不是整个故事。我们也必须考虑RAM的使用情况。
我的机器上有足够的内存来处理1,000,000个项目,但是在2,000,000时我用完RAM并且不得不开始使用虚拟内存。即使使用SSD和快速机器,我也会让DOM代码运行近十分钟,然后再杀死它。
您报告的时间很长很可能是因为您的RAM耗尽并且作为虚拟内存的一部分连续点击磁盘。如果您可以将DOM放入内存中,请使用它,因为它很快。但是,如果不能,则必须使用SAX版本。
这是测试代码:
require 'nokogiri'
CATEGORIES = %w[ Cats Dogs Hogs Cows Sheep Pigs Llamas ]
ITEM_COUNT = 500_000
def test!
create_xml
sleep 2; GC.start # Time to read memory before cleaning the slate
test_sax
sleep 2; GC.start # Time to read memory before cleaning the slate
test_dom
end
def time(label)
t1 = Time.now
yield.tap{ puts "%s: %.1fs" % [ label, Time.now-t1 ] }
end
def test_sax
item_counts = time("Count via SAX") do
counter = CategoryCounter.new
# Use parse_file so we can stream data from disk instead of flooding RAM
Nokogiri::HTML::SAX::Parser.new(counter).parse_file('tmp.xml')
counter.category_counts
end
# p item_counts
end
def test_dom
doc = time("Create DOM"){ File.open('tmp.xml','r'){ |f| Nokogiri.XML(f) } }
counts = time("Count via DOM") do
counts = Hash.new(0)
doc.xpath('//cat').each do |cat|
counts[cat.children[0].content] += 1
end
counts
end
# p counts
end
class CategoryCounter < Nokogiri::XML::SAX::Document
attr_reader :category_counts
def initialize
@category_counts = Hash.new(0)
end
def start_element(name,att=nil)
@count = name=='cat'
end
def characters(str)
if @count
@category_counts[str] += 1
@count = false
end
end
end
def create_xml
time("Create XML file") do
File.open('tmp.xml','w') do |f|
f << "<root>
<summarysection><totalcount>10000</totalcount></summarysection>
<items>
#{
ITEM_COUNT.times.map{ |i|
"<item>
<cat>#{CATEGORIES.sample}</cat>
<name>Name #{i}</name>
<name>Value #{i}</name>
</item>"
}.join("\n")
}
</items>
</root>"
end
end
end
test! if __FILE__ == $0
如果我们剥离一些测试结构,基于DOM的计数器看起来像这样:
# Open the file on disk and pass it to Nokogiri so that it can stream read;
# Better than doc = Nokogiri.XML(IO.read('tmp.xml'))
# which requires us to load a huge string into memory just to parse it
doc = File.open('tmp.xml','r'){ |f| Nokogiri.XML(f) }
# Create a hash with default '0' values for any 'missing' keys
counts = Hash.new(0)
# Find every `<cat>` element in the document (assumes one per <item>)
doc.xpath('//cat').each do |cat|
# Get the child text node's content and use it as the key to the hash
counts[cat.children[0].content] += 1
end
首先,让我们关注这段代码:
class CategoryCounter < Nokogiri::XML::SAX::Document
attr_reader :category_counts
def initialize
@category_counts = Hash.new(0)
end
def start_element(name,att=nil)
@count = name=='cat'
end
def characters(str)
if @count
@category_counts[str] += 1
@count = false
end
end
end
当我们创建这个类的一个新实例时,我们得到一个对象,它具有一个Hash,对于所有值默认为0,以及可以在其上调用的几个方法。 SAX Parser将在文档中运行时调用这些方法。
每次SAX解析器看到一个新元素时,它将在此类上调用start_element
方法。当发生这种情况时,我们根据这个元素是否被命名为“cat”来设置一个标志(以便我们以后可以找到它的名称)。
每当SAX解析器啜饮一大块文本时,它就会调用对象的characters
方法。当发生这种情况时,我们会检查我们看到的最后一个元素是否属于某个类别(即@count
是否设置为true
);如果是这样,我们使用此文本节点的值作为类别名称,并在我们的计数器中添加一个。
要在Nokogiri的SAX解析器中使用我们的自定义对象,我们这样做:
# Create a new instance, with its empty hash
counter = CategoryCounter.new
# Create a new parser that will call methods on our object, and then
# use `parse_file` so that it streams data from disk instead of flooding RAM
Nokogiri::HTML::SAX::Parser.new(counter).parse_file('tmp.xml')
# Once that's done, we can get the hash of category counts back from our object
counts = counter.category_counts
p counts["Pigs"]
答案 1 :(得分:3)
我建议使用SAX解析器而不是DOM解析器来处理这么大的文件。 Nokogiri内置了一个很好的SAX解析器:http://nokogiri.org/Nokogiri/XML/SAX.html
对于大型文件,SAX的处理方式很好,因为它没有构建一个巨大的DOM树,在你的情况下是过度的;您可以在事件触发时构建自己的结构(例如,用于计算节点)。
答案 2 :(得分:3)
通过将代码更改为以下内容,您可以大大缩短执行时间。只需将“99”更改为您要检查的任何类别。
require 'rubygems'
require 'nokogiri'
require 'open-uri'
icount = 0
xmlfeed = Nokogiri::XML(open("test.xml"))
items = xmlfeed.xpath("//item")
items.each do |item|
text = item.children.children.first.text
if ( text =~ /99/ )
icount += 1
end
end
othercount = xmlfeed.xpath("//totalcount").inner_text.to_i - icount
puts icount
puts othercount
我的机器上花了大约三秒钟。我认为你犯的一个关键错误就是你选择了“items”迭代而不是创建“item”节点的集合。这使你的迭代代码变得笨拙和缓慢。
答案 3 :(得分:0)
您可以尝试一下 - https://github.com/amolpujari/reading-huge-xml
HugeXML.read xml, elements_lookup do |element|
# => element{ :name, :value, :attributes}
end
我也尝试过使用ox
答案 4 :(得分:0)
查看Greg Weber版本的Paul Dix的萨克斯机器宝石: http://blog.gregweber.info/posts/2011-06-03-high-performance-rb-part1
Parsing large file with SaxMachine seems to be loading the whole file into memory
sax-machine使代码更加简单; Greg的变体让它流畅。