我正在为网页开发一个简单的抓取工具。我搜索了很多实现多线程爬虫的解决方案。创建线程安全队列以包含唯一URL的最佳方法是什么?
编辑: .Net 4.5中有更好的解决方案吗?
答案 0 :(得分:2)
使用Task Parallel Library并使用使用ThreadPool的默认调度程序。
好的,这是一个最小实现,一次排队30个网址:
public static void WebCrawl(Func<string> getNextUrlToCrawl, // returns a URL or null if no more URLs
Action<string> crawlUrl, // action to crawl the URL
int pauseInMilli // if all threads engaged, waits for n milliseconds
)
{
const int maxQueueLength = 50;
string currentUrl = null;
int queueLength = 0;
while ((currentUrl = getNextUrlToCrawl()) != null)
{
string temp = currentUrl;
if (queueLength < maxQueueLength)
{
Task.Factory.StartNew(() =>
{
Interlocked.Increment(ref queueLength);
crawlUrl(temp);
}
).ContinueWith((t) =>
{
if(t.IsFaulted)
Console.WriteLine(t.Exception.ToString());
else
Console.WriteLine("Successfully done!");
Interlocked.Decrement(ref queueLength);
}
);
}
else
{
Thread.Sleep(pauseInMilli);
}
}
}
虚拟用法:
static void Main(string[] args)
{
Random r = new Random();
int i = 0;
WebCrawl(() => (i = r.Next()) % 100 == 0 ? null : ("Some URL: " + i.ToString()),
(url) => Console.WriteLine(url),
500);
Console.Read();
}
答案 1 :(得分:2)
ConcurrentQueue确实是框架的线程安全队列实现。但由于您可能会在producer-consumer场景中使用它,因此您真正关注的类可能是无限有用的BlockingCollection。
答案 2 :(得分:1)
System.Collections.Concurrent.ConcurrentQueue<T>
符合条款吗?
答案 3 :(得分:1)
我使用System.Collections.Concurrent.ConcurrentQueue。
您可以安全地从多个线程排队和出队。
答案 4 :(得分:1)
查看System.Collections.Concurrent.ConcurrentQueue。如果需要等待,可以使用System.Collections.Concurrent.BlockingCollection