我有一个项目使用Lucene.net(最新版本)使用StandardAnalyzer索引包含大量(200万)文本行的文件。
我将每行写入索引作为单个文档;使用生成的索引我现在想要获取每个单词的字典及其在所有文档中的总计数。
实现这一目标的最佳方法是什么?
提前致谢。
答案 0 :(得分:1)
Luke.NET这样做。以下是来源的功能,可以帮助您顺利开展:
public static TermInfo[] GetHighFreqTerms(Directory dir,
Hashtable junkWords,
int numTerms,
String[] fields)
{
if (dir == null || fields == null) return new TermInfo[0];
IndexReader reader = IndexReader.Open(dir, true);
TermInfoQueue tiq = new TermInfoQueue(numTerms);
TermEnum terms = reader.Terms();
int minFreq = 0;
while (terms.Next())
{
String field = terms.Term.Field;
if (fields != null && fields.Length > 0)
{
bool skip = true;
for (int i = 0; i < fields.Length; i++)
{
if (field.Equals(fields[i]))
{
skip = false;
break;
}
}
if (skip) continue;
}
if (junkWords != null && junkWords[terms.Term.Text] != null)
continue;
if (terms.DocFreq() > minFreq)
{
tiq.Add(new TermInfo(terms.Term, terms.DocFreq()));
if (tiq.Size() >= numTerms) // if tiq overfull
{
tiq.Pop(); // remove lowest in tiq
minFreq = ((TermInfo)tiq.Top()).DocFreq; // reset minFreq
}
}
}
TermInfo[] res = new TermInfo[tiq.Size()];
for (int i = 0; i < res.Length; i++)
{
res[res.Length - i - 1] = (TermInfo)tiq.Pop();
}
reader.Dispose();
return res;
}