我必须为捕获到用户的所有不同事件创建每日和每周摘要电子邮件。
我正在使用Kafka记录Kafka中的每个事件。在这里,我使用key作为USERID。因此,所有消息都转到相同的分区ID。
让我们来考虑以下情况, 1.用户登录系统-一个事件 2.用户创建了支持票-一个事件 3.用户更新的个人资料图片-一个事件
现在结束时,如果我想创建包含该用户所有事件的摘要,则如何在Kafka中按用户ID对消息进行分组并创建摘要。如果我们为1000个用户存储相同的事件,则很难在Kafka中读取每条消息并以编程方式对其进行分组。有没有针对这种问题的有效解决方案?使用Kafka Streams API,KTable在这种情况下会有所帮助吗?请指教。