我很想让这个程序在速度上有很大提高。它在10分钟内读取+ - 12000页。我想知道是否有什么东西对速度有多大帮助?我希望你们知道一些提示。我应该阅读+ - 数百万页...所以这将花费太长时间:(这是我的代码:
from eventlet.green import urllib2
import httplib
import time
import eventlet
# Create the URLS in groups of 400 (+- max for eventlet)
def web_CreateURLS():
print str(str(time.asctime( time.localtime(time.time()) )).split(" ")[3])
for var_indexURLS in xrange(0, 2000000, 400):
var_URLS = []
for var_indexCRAWL in xrange(var_indexURLS, var_indexURLS+400):
var_URLS.append("http://www.nu.nl")
web_ScanURLS(var_URLS)
# Return the HTML Source per URL
def web_ReturnHTML(url):
try:
return [urllib2.urlopen(url[0]).read(), url[1]]
except urllib2.URLError:
time.sleep(10)
print "UrlError"
web_ReturnHTML(url)
# Analyse the HTML Source
def web_ScanURLS(var_URLS):
pool = eventlet.GreenPool()
try:
for var_HTML in pool.imap(web_ReturnHTML, var_URLS):
# do something etc..
except TypeError: pass
web_CreateURLS()
答案 0 :(得分:1)
我喜欢使用greenlets ..但我经常受益于使用遍布许多系统的多个进程..或者只是一个系统让操作系统负责运行多个进程的所有检查和平衡。
在http://zeromq.org/查看ZeroMQ,了解如何使用TON监听器制作调度程序的一些好例子,这些监听器可以执行调度程序所说的任何操作。或者,请查看execnet,了解快速入门并行执行远程或本地任务的方法。
我也经常使用http://spread.org/并且有很多系统正在监听一个普通的传播守护进程..它是一个非常有用的消息总线,可以很容易地将结果汇集回来并从单个线程发送。
然后当然总是有redis pub / sub或sync。 :)
“分担负担”