我想检查 Consumer / Worker 是否存在以消耗我即将发送的消息。
如果没有 Worker ,我会启动一些工作人员(消费者和发布者都在一台机器上),然后继续发布消息。
如果有像connection.check_if_has_consumers
这样的函数,我会像这样实现它 -
import pika
import workers
# code for publishing to worker queue
connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost'))
channel = connection.channel()
# if there are no consumers running (would be nice to have such a function)
if not connection.check_if_has_consumers(queue="worker_queue", exchange=""):
# start the workers in other processes, using python's `multiprocessing`
workers.start_workers()
# now, publish with no fear of your queues getting filled up
channel.queue_declare(queue="worker_queue", auto_delete=False, durable=True)
channel.basic_publish(exchange="", routing_key="worker_queue", body="rockin",
properties=pika.BasicProperties(delivery_mode=2))
connection.close()
但我无法在 pika 中找到任何具有check_if_has_consumers
功能的功能。
使用 pika 有没有办法完成此操作?或者,通过直接与 The Rabbit 进行交谈
我不完全确定,但我真的认为 RabbitMQ 会知道订阅不同队列的消费者数量,因为它会向他们发送消息并接受的ACK
我刚开始使用 RabbitMQ 3小时前...欢迎任何帮助......
这是我编写的 workers.py 代码,如果有任何帮助....
import multiprocessing
import pika
def start_workers(num=3):
"""start workers as non-daemon processes"""
for i in xrange(num):
process = WorkerProcess()
process.start()
class WorkerProcess(multiprocessing.Process):
"""
worker process that waits infinitly for task msgs and calls
the `callback` whenever it gets a msg
"""
def __init__(self):
multiprocessing.Process.__init__(self)
self.stop_working = multiprocessing.Event()
def run(self):
"""
worker method, open a channel through a pika connection and
start consuming
"""
connection = pika.BlockingConnection(
pika.ConnectionParameters(host='localhost')
)
channel = connection.channel()
channel.queue_declare(queue='worker_queue', auto_delete=False,
durable=True)
# don't give work to one worker guy until he's finished
channel.basic_qos(prefetch_count=1)
channel.basic_consume(callback, queue='worker_queue')
# do what `channel.start_consuming()` does but with stopping signal
while len(channel._consumers) and not self.stop_working.is_set():
channel.transport.connection.process_data_events()
channel.stop_consuming()
connection.close()
return 0
def signal_exit(self):
"""exit when finished with current loop"""
self.stop_working.set()
def exit(self):
"""exit worker, blocks until worker is finished and dead"""
self.signal_exit()
while self.is_alive(): # checking `is_alive()` on zombies kills them
time.sleep(1)
def kill(self):
"""kill now! should not use this, might create problems"""
self.terminate()
self.join()
def callback(channel, method, properties, body):
"""pika basic consume callback"""
print 'GOT:', body
# do some heavy lifting here
result = save_to_database(body)
print 'DONE:', result
channel.basic_ack(delivery_tag=method.delivery_tag)
修改
我必须继续前进,所以这里是我要采取的解决方法,除非有更好的方法,
所以, RabbitMQ 有这些HTTP management apis,它们在您打开management plugin之后工作,并且在HTTP apis页面中间有
/ api / connections - 所有打开连接的列表。
/ api / connections / name - 单个连接。删除它将关闭连接。
因此,如果我通过不同的 Connection 名称/用户连接我的 Workers 和我的 Produces ,我将能够检查是否工人连接已打开...(当工人死亡时可能会出现问题......)
将等待更好的解决方案...
修改
刚刚在rabbitmq文档中找到了这个,但是这在python中会很麻烦:
shobhit@oracle:~$ sudo rabbitmqctl -p vhostname list_queues name consumers
Listing queues ...
worker_queue 0
...done.
所以我可以做点什么,
subprocess.call("echo password|sudo -S rabbitmqctl -p vhostname list_queues name consumers | grep 'worker_queue'")
hacky ...仍然希望pika有一些python功能来做到这一点......
谢谢,
答案 0 :(得分:7)
我也正在研究这个问题。阅读完源代码和文档后,我在channel.py中看到了以下内容:
@property
def consumer_tags(self):
"""Property method that returns a list of currently active consumers
:rtype: list
"""
return self._consumers.keys()
我自己的测试成功了。我使用了以下我的频道对象是self._channel:
if len(self._channel.consumer_tags) == 0:
LOGGER.info("Nobody is listening. I'll come back in a couple of minutes.")
...
答案 1 :(得分:0)
我实际上在事故中发现了这个问题,但是有一件事可能会对Basic_Publish函数有所帮助,有一个参数“Immediate”默认为False。
您可以做的一个想法是将立即标志设置为True,这将要求消费者立即使用它,而不是坐在队列中。如果某个工作人员无法使用该消息,则会返回错误,告诉您启动另一个工作人员。
根据系统的吞吐量,这可能会产生大量额外的工作人员,或者产生工人来替换死亡工人。对于前一个问题,您可以编写一个类似管理员的系统,只需通过控制队列跟踪工作人员,您可以在其中告诉“Runner”这样的流程来杀死现在不再需要的工人流程。