我正在尝试为Tornado服务器编写一个简单的工作负载生成器,这是它的简化版本:
class EventsLoader(object):
generate_num_requests = 1000
generate_concurrency = 32
server_port = 8001
def __init__(self, conf_file):
self.parse_config(conf_file)
self.client = AsyncHTTPClient()
def generate(self):
IOLoop.current().run_sync(self.generate_work)
@gen.coroutine
def generate_work(self):
self.queue = queues.Queue()
IOLoop.current().spawn_callback(self.fetch_requests)
for i in range(self.generate_concurrency):
yield self.generate_requests(i)
print 'before join queue size: %s' % self.queue.qsize()
yield self.queue.join()
@gen.coroutine
def generate_requests(self, i):
load = self.generate_num_requests / self.generate_concurrency
for j in range(load):
request = self.generate_request(i * 1000 + j)
self.queue.put(request)
@gen.coroutine
def fetch_requests(self):
while True:
try:
request = yield self.queue.get()
yield self.client.fetch(request)
except Exception as e:
print 'failed fetching: %s: %s' % (request.body, e)
finally:
print 'fetched: %s' % json.loads(request.body)['seq']
self.queue.task_done()
def generate_request(self, seq):
event = {
'seq': seq,
# ... more fields here ...
}
return HTTPRequest(
'http://localhost:%s/events' % self.server_port,
method='POST',
body=json.dumps(event),
)
我看到的是,所有消息fetched: xxxx
按顺序出现,如果生成器确实同时工作,这是绝对不可能的。
如何让它同时运行?我对I / O循环的理解以及@gen.coroutine
的作用一定有很多缺失。即无论我的generate_concurrency
设置如何,性能都不会改变。
答案 0 :(得分:1)
无论您如何生成请求,您都只能获取任务。这是你需要并行化的提取而不是生成:
for i in range(self.fetch_concurrency):
IOLoop.current().spawn_callback(self.fetch_requests)
这将为您提供多个fetch_requests
工作人员,可以从共享队列中提取工作。
此外,此代码的生成部分也未并行运行。而不是
for i in range(self.generate_concurrency):
yield self.generate_requests(i)
在开始下一个之前等待一个generate_requests
调用完成,你可以与
yield [self.generate_requests(i) for i in range(self.generate_concurrency)]