如何在爬行后减少/更改延迟?

时间:2014-03-12 14:47:52

标签: java web-crawler crawler4j

有没有使用Crawler4j的经验?

我按照the project page中的示例来实现自己的抓取工具。爬虫工作正常,爬得非常快。唯一的问题是我总是有20-30秒的延迟。有没有办法避免等待时间?

1 个答案:

答案 0 :(得分:2)

刚查过crawler4j source codeCrawerController.start方法有很多固定的10秒“暂停”,以确保线程已完成并准备好进行清理。

// Make sure again that none of the threads
// are
// alive.
logger.info("It looks like no thread is working, waiting for 10 seconds to make sure...");
sleep(10);

// ... more code ...

logger.info("No thread is working and no more URLs are in queue waiting for another 10 seconds to make sure...");
sleep(10);

// ... more code ...

logger.info("Waiting for 10 seconds before final clean up...");
sleep(10);

此外,主循环每10秒检查一次,以了解爬行线程是否已完成:

while (true) {
    sleep(10);
    // code to check if some thread is still working
}

protected void sleep(int seconds) {
   try {
       Thread.sleep(seconds * 1000);
   } catch (Exception ignored) {
   }
}

因此,微调这些呼叫并减少休眠时间可能是值得的。

如果可以节省一些时间,更好的解决方案是重写此方法。我会将List<Thread> threads替换为ExecutorService,其awaitTermination方法会特别方便。与睡眠不同,如果完成所有任务,awaitTermination(10, TimeUnit.SECONDS)将立即返回。