我正在使用Storm来实时处理Kafka上的消息,并使用streamparse构建我的拓扑。对于这个用例,我们必须100%保证任何处理Storm的消息都会得到处理和确认。我已经使用try / catch在我的bolt上实现了逻辑(见下文),除了将这个消息写入Kafka中的另一个“错误”主题之外,我想让Storm重播这些消息。
在我的KafkaSpout中,我将tup_id指定为等于我的消费者正在喂食的Kafka主题的偏移ID。但是,当我使用错误的变量引用强制我的Bolt中的错误时,我没有看到重播的消息。我确实看到一个写'错误'卡夫卡话题,但只有一次 - 意味着元组永远不会被重新提交到我的螺栓中。我对TOPOLOGY_MESSAGE_TIMEOUT_SEC = 60的设置我希望Storm能够每60秒重复一次失败的消息并让我的错误捕获一直写入错误主题。
KafkaSpout.py
class kafkaSpout(Spout):
def initialize(self, stormconf, context):
self.kafka = KafkaClient(str("host:6667"))#,offsets_channel_socket_timeout_ms=60000)
self.topic = self.kafka.topics[str("topic-1")]
self.consumer = self.topic.get_balanced_consumer(consumer_group=str("consumergroup"),auto_commit_enable=False,zookeeper_connect=str("host:2181"))
def next_tuple(self):
for message in self.consumer:
self.emit([json.loads(message.value)],tup_id=message.offset)
self.log("spout emitting tuple ID (offset): "+str(message.offset))
self.consumer.commit_offsets()
def fail(self, tup_id):
self.log("failing logic for consumer. resubmitting tup id: ",str(tup_id))
self.emit([json.loads(message.value)],tup_id=message.offset)
processBolt.py
class processBolt(Bolt):
auto_ack = False
auto_fail = False
def initialize(self, conf, ctx):
self.counts = Counter()
self.kafka = KafkaClient(str("host:6667"),offsets_channel_socket_timeout_ms=60000)
self.topic = self.kafka.topics[str("topic-2")]
self.producer = self.topic.get_producer()
self.failKafka = KafkaClient(str("host:6667"),offsets_channel_socket_timeout_ms=60000)
self.failTopic = self.failKafka.topics[str("topic-error")]
self.failProducer = self.failTopic.get_producer()
def process(self, tup):
try:
self.log("found tup.")
docId = tup.values[0]
url = "solrserver.host.com/?id="+str(docId)
thisIsMyForcedError = failingThisOnPurpose ####### this is what im using to fail my bolt consistent
data = json.loads(requests.get(url).text)
if len(data['response']['docs']) > 0:
self.producer.produce(json.dumps(docId))
self.log("record FOUND {0}.".format(docId))
else:
self.log('record NOT found {0}.'.format(docId))
self.ack(tup)
except:
docId = tup.values[0]
self.failProducer.produce( json.dumps(docId), partition_key=str("ERROR"))
self.log("TUP FAILED IN PROCESS BOLT: "+str(docId))
self.fail(tup)
对于如何正确实现此案例的自定义失败逻辑,我将不胜感激。提前谢谢。