我试图使用MongoDB debezium连接器从Kafka捕获数据,但是当我尝试使用KafkaJS读取数据时却出现错误:
KafkaJSProtocolError: The group member's supported protocols are incompatible with those of existing members
我正在使用docker映像捕获数据。
以下是步骤,我正在关注:
启动Zookeeper
docker run -it --rm --name zookeeper -p 2181:2181 -p 2888:2888 -p 3888:3888 debezium/zookeeper:latest
启动kafka
docker run -it --rm --name kafka -p 9092:9092 --link zookeeper:zookeeper debezium/kafka:latest
我已经以复制模式运行了MongoDB
启动debezium Kafka connect
docker run -it --rm --name connect -p 8083:8083 -e GROUP_ID=1 -e CONFIG_STORAGE_TOPIC=my_connect_configs -e OFFSET_STORAGE_TOPIC=my_connect_offsets -e STATUS_STORAGE_TOPIC=my_connect_statuses --link zookeeper:zookeeper --link kafka:kafka debezium/connect:latest
然后发布MongoDB连接器配置
curl -i -X POST -H "Accept:application/json" -H "Content-Type:application/json" localhost:8083/connectors/ -d '{ "name": "mongodb-connector", "config": { "connector.class": "io.debezium.connector.mongodb.MongoDbConnector", "mongodb.hosts": "rs0/abc.com:27017", "mongodb.name": "fullfillment", "collection.whitelist": "mongodev.test", "mongodb.user": "kafka", "mongodb.password": "kafka01" } }'
以此为例,如果我运行一个watcher docker容器,则可以在控制台中以Json格式进行数据
docker run -it --name watchermongo --rm --link zookeeper:zookeeper --link kafka:kafka debezium/kafka:0.9 watch-topic -a -k fullfillment.mongodev.test
但是我想在应用程序中捕获此数据,以便可以操纵,处理它并推送到ElasticSearch。为此,我使用
https://github.com/tulios/kafkajs
但是,当我运行使用者代码时,出现错误。这是代码示例
//'use strict';
// clientId=connect-1, groupId=1
const { Kafka } = require('kafkajs')
const kafka = new Kafka({
clientId: 'connect-1',
brokers: ['localhost:9092', 'localhost:9093']
})
// Consuming
const consumer = kafka.consumer({ groupId: '1' })
var consumeMessage = async () => {
await consumer.connect()
await consumer.subscribe({ topic: 'fullfillment.mongodev.test' })
await consumer.run({
eachMessage: async ({ topic, partition, message }) => {
console.log({
value: message.value.toString(),
})
},
})
}
consumeMessage();
KafkaJSProtocolError: The group member's supported protocols are incompatible with those of existing members
答案 0 :(得分:0)
您不应该在Connect和KafkaJS使用者中使用相同的groupId。如果这样做的话,它们将成为同一使用者组的一部分,这意味着,即使它们完全起作用,消息也只会被一个或另一个使用。
如果您将KafkaJS使用者的groupId更改为唯一的,则应该可以使用。
请注意,默认情况下,新的KafkaJS使用者组将从最近的偏移量开始使用,因此不会使用已经产生的消息。您可以在fromBeginning
调用中使用consumer.subscribe
标志来覆盖此行为。参见https://kafka.js.org/docs/consuming#from-beginning