在讨论here之后,我使用以下步骤来使外部客户端(基于kafkajs)在OpenShift上连接到Strimzi。这些步骤来自here。
kafka-persistent-single.yaml
的编辑如下所示。
apiVersion: kafka.strimzi.io/v1beta1
kind: Kafka
metadata:
name: my-cluster
spec:
kafka:
version: 2.3.0
replicas: 1
listeners:
plain: {}
tls: {}
external:
type: route
config:
offsets.topic.replication.factor: 1
transaction.state.log.replication.factor: 1
transaction.state.log.min.isr: 1
log.message.format.version: "2.3"
storage:
type: jbod
volumes:
- id: 0
type: persistent-claim
size: 5Gi
deleteClaim: false
zookeeper:
replicas: 1
storage:
type: persistent-claim
size: 5Gi
deleteClaim: false
entityOperator:
topicOperator: {}
userOperator: {}
要提取证书并在客户端中使用它,我运行了以下命令:
kubectl get secret my-cluster-cluster-ca-cert -o jsonpath='{.data.ca\.crt}' | base64 -D > ca.crt
请注意,我必须在macOS上使用base64 -D
,而不是文档中所示的base64 -d
。
这是根据其npm
页和其documentation改编的客户端。
const fs = require('fs')
const { Kafka } = require('kafkajs')
const kafka = new Kafka({
clientId: 'my-app',
brokers: ['my-cluster-kafka-bootstrap-messaging-os.192.168.99.100.nip.io'],
ssl : { rejectUnauthorized: false,
ca : [fs.readFileSync('ca.crt', 'utf-8')]
}
})
const producer = kafka.producer()
const consumer = kafka.consumer({ groupId: 'test-group' })
const run = async () => {
// Producing
await producer.connect()
await producer.send({
topic: 'test-topic',
messages: [
{ value: 'Hello KafkaJS user!' },
],
})
// Consuming
await consumer.connect()
await consumer.subscribe({ topic: 'test-topic', fromBeginning: true })
await consumer.run({
eachMessage: async ({ topic, partition, message }) => {
console.log({
partition,
offset: message.offset,
value: message.value.toString(),
})
},
})
}
run().catch(console.error)
当我从具有node sample.js
的文件夹中运行ca.crt
时,收到连接被拒绝的消息。
{"level":"ERROR","timestamp":"2019-10-05T03:22:40.491Z","logger":"kafkajs","message":"[Connection] Connection error: connect ECONNREFUSED 192.168.99.100:9094","broker":"my-cluster-kafka-bootstrap-messaging-os.192.168.99.100.nip.io:9094","clientId":"my-app","stack":"Error: connect ECONNREFUSED 192.168.99.100:9094\n at TCPConnectWrap.afterConnect [as oncomplete] (net.js:1113:14)"}
我想念什么?
答案 0 :(得分:0)
我想问题是您缺少经纪人地址上的正确端口443,因此您必须使用
经纪人:['my-cluster-kafka-bootstrap-messaging-os.192.168.99.100.nip.io:443']
否则它将尝试连接到OpenShift路由上的默认端口80。
答案 1 :(得分:0)
在与@ppatierno进行了广泛讨论之后,我觉得Strimzi集群与Kafka控制台客户端可以很好地协同工作。另一方面,kafkajs
软件包因NOT_LEADER_FOR_PARTITION
而不断失败。
更新 Python client似乎没有大惊小怪;因此,我放弃了kafkajs
。