Web爬行期间的速度问题(Python)

时间:2012-10-06 20:46:54

标签: python performance web-crawler

我很想让这个程序在速度上有很大提高。它在10分钟内读取+ - 12000页。我想知道是否有什么东西对速度有多大帮助?我希望你们知道一些提示。我应该阅读+ - 数百万页...所以这将花费太长时间:(这是我的代码:

from eventlet.green import urllib2                          
import httplib                                              
import time                                                 
import eventlet   

# Create the URLS in groups of 400 (+- max for eventlet)                                    
def web_CreateURLS():
    print str(str(time.asctime( time.localtime(time.time()) )).split(" ")[3])
    for var_indexURLS in xrange(0, 2000000, 400):
        var_URLS = []
        for var_indexCRAWL in xrange(var_indexURLS, var_indexURLS+400):
            var_URLS.append("http://www.nu.nl")
        web_ScanURLS(var_URLS)    

# Return the HTML Source per URL
def web_ReturnHTML(url):
    try:
        return [urllib2.urlopen(url[0]).read(), url[1]]
    except urllib2.URLError:
        time.sleep(10)
        print "UrlError"
        web_ReturnHTML(url)

# Analyse the HTML Source
def web_ScanURLS(var_URLS):
    pool = eventlet.GreenPool()
    try:  
        for var_HTML in pool.imap(web_ReturnHTML, var_URLS):
               # do something etc..
    except TypeError: pass

web_CreateURLS()

1 个答案:

答案 0 :(得分:1)

我喜欢使用greenlets ..但我经常受益于使用遍布许多系统的多个进程..或者只是一个系统让操作系统负责运行多个进程的所有检查和平衡。

http://zeromq.org/查看ZeroMQ,了解如何使用TON监听器制作调度程序的一些好例子,这些监听器可以执行调度程序所说的任何操作。或者,请查看execnet,了解快速入门并行执行远程或本地任务的方法。

我也经常使用http://spread.org/并且有很多系统正在监听一个普通的传播守护进程..它是一个非常有用的消息总线,可以很容易地将结果汇集回来并从单个线程发送。

然后当然总是有redis pub / sub或sync。 :)

“分担负担”