我正在尝试提高索引lucene文件的性能。为此,我创建了一个工作“LuceneWorker”来完成这项工作。
鉴于下面的代码,'并发'执行变得非常慢。我想我知道为什么 - 这是因为期货增长到一个极限,几乎没有内存来执行LuceneWorker的另一项任务。
问:有没有办法限制进入执行人的“工人”数量?换句话说,如果有'n'期货 - 不要继续并允许首先将文件编入索引?我的直观方法是我应该使用ArrayBlockingQueue构建一个使用者/生产者。但是在我重新设计它之前,我想知道我是否正确。
ExecutorService executor = Executors.newFixedThreadPool(cores);
List<Future<List<Document>>> futures = new ArrayList<Future<List<Document>>>(3);
for (File file : files)
{
if (isFileIndexingOK(file))
{
System.out.println(file.getName());
Future<List<Document>> future = executor.submit(new LuceneWorker(file, indexSearcher));
futures.add(future);
}
else
{
System.out.println("NOT A VALID FILE FOR INDEXING: "+file.getName());
continue;
}
}
int index=0;
for (Future<List<Document>> future : futures)
{
try{
List<Document> docs = future.get();
for(Document doc : docs)
writer.addDocument(doc);
}catch(Exception exp)
{
//exp code comes here.
}
}
答案 0 :(得分:1)
根据标准输入大小和LuceneWorker类的复杂性,我可以想象至少部分使用Fork / Join框架来解决这个问题。使用JDK 8的CountedCompleter实现(包含在jsr166y中)时,I / O操作不会产生任何问题。