有没有使用Crawler4j的经验?
我按照the project page中的示例来实现自己的抓取工具。爬虫工作正常,爬得非常快。唯一的问题是我总是有20-30秒的延迟。有没有办法避免等待时间?
答案 0 :(得分:2)
刚查过crawler4j source code。 CrawerController.start方法有很多固定的10秒“暂停”,以确保线程已完成并准备好进行清理。
// Make sure again that none of the threads
// are
// alive.
logger.info("It looks like no thread is working, waiting for 10 seconds to make sure...");
sleep(10);
// ... more code ...
logger.info("No thread is working and no more URLs are in queue waiting for another 10 seconds to make sure...");
sleep(10);
// ... more code ...
logger.info("Waiting for 10 seconds before final clean up...");
sleep(10);
此外,主循环每10秒检查一次,以了解爬行线程是否已完成:
while (true) {
sleep(10);
// code to check if some thread is still working
}
protected void sleep(int seconds) {
try {
Thread.sleep(seconds * 1000);
} catch (Exception ignored) {
}
}
因此,微调这些呼叫并减少休眠时间可能是值得的。
如果可以节省一些时间,更好的解决方案是重写此方法。我会将List<Thread> threads
替换为ExecutorService,其awaitTermination方法会特别方便。与睡眠不同,如果完成所有任务,awaitTermination(10, TimeUnit.SECONDS)
将立即返回。