重新启动后,删除Kafka主题

时间:2019-01-21 11:42:10

标签: azure apache-kafka confluent azure-kubernetes persistent-volumes

我有一个带有一个Zookeeper吊舱和三个kafka经纪人吊舱的kubernetes集群。

zk的部署描述符为:

apiVersion: extensions/v1beta1
kind: Deployment
metadata:
  name: zookeeper
spec:
  replicas: 1
  template:
    metadata:
      labels:
        name: zookeeper
    spec:
      containers:
      - env:
        - name: ZOOKEEPER_ID
          value: "1"
        - name: ZOOKEEPER_SERVER_1
          value: zookeeper
        - name: ZOOKEEPER_CLIENT_PORT
          value: "2181"
        - name: ZOOKEEPER_TICK_TIME
          value: "2000"
        name: zookeeper
        image: confluentinc/cp-zookeeper:5.0.1
        ports:
        - containerPort: 2181
        volumeMounts:
        - mountPath: /var/lib/zookeeper/
          name: zookeeper-data
      nodeSelector:
        noderole: kafka1
      restartPolicy: Always
      volumes:
      - name: zookeeper-data
        persistentVolumeClaim:
          claimName: zookeeper-volume-claims

对于kafka经纪人来说,如下所示(每个经纪人都有对应的经纪人名称,侦听器和持久卷声明):

apiVersion: extensions/v1beta1
kind: Deployment
metadata:
  name: kafka1
spec:
  replicas: 1
  strategy:
    type: Recreate
  template:
    metadata:
      labels:
        name: kafka1
    spec:
      containers:
      - env:
        - name: KAFKA_AUTO_CREATE_TOPICS_ENABLE
          value: "true"
        - name: KAFKA_ADVERTISED_LISTENERS
          value: "PLAINTEXT://<ip>:9092"
        - name: KAFKA_LISTENERS
          value: "PLAINTEXT://0.0.0.0:9092"
        - name: KAFKA_ZOOKEEPER_CONNECT
          value: <ip>:2181
        - name: KAFKA_BROKER_ID
          value: "1"
        name: kafka1
        image: confluentinc/cp-enterprise-kafka:5.0.1
        ports:
        - containerPort: 9092
        volumeMounts:
        - mountPath: /var/lib/kafka
          name: kafka1-data
      nodeSelector:
        noderole: kafka2
      restartPolicy: Always
      volumes:
      - name: kafka1-data
        persistentVolumeClaim:
          claimName: kafka1-volume-claim

该集群已启动并正在运行,我能够创建主题以及发布和使用消息。

log.1文件存在于/ var / lib / zookeeper / log / version-2

-rw-r--r-- 1 root root 67108880 Jan 18 11:34 log.1

如果我碰到其中一位经纪人:

kubectl exec -it kafka3-97454b745-wddpv bash

我可以看到该主题的两个分区:

drwxr-xr-x 2 root root 4096 Jan 21 10:34 test1-1
drwxr-xr-x 2 root root 4096 Jan 21 10:35 test1-0

分配了Zookeeper蚂蚁经纪人后,当我重新启动虚拟机时,问题就来了。一个用于zk,每个用于一个代理(三个虚拟机符合我的Kubernetes集群)

重新启动后,在每个代理中,没有任何主题:

root@kafka3-97454b745-wddpv:/var/lib/kafka/data# ls -lrt
total 24
-rw-r--r-- 1 root root    0 Jan 21 10:56 cleaner-offset-checkpoint
-rw-r--r-- 1 root root   54 Jan 21 10:56 meta.properties
drwxr-xr-x 2 root root 4096 Jan 21 10:56 __confluent.support.metrics-0
drwxr-xr-x 2 root root 4096 Jan 21 10:56 _schemas-0
-rw-r--r-- 1 root root   49 Jan 21 11:10 recovery-point-offset-checkpoint
-rw-r--r-- 1 root root    4 Jan 21 11:10 log-start-offset-checkpoint
-rw-r--r-- 1 root root   49 Jan 21 11:11 replication-offset-checkpoint

在动物园管理员中:

root@zookeeper-84bb68d45b-cklwm:/var/lib/zookeeper/log/version-2# ls -lrt
total 16
-rw-r--r-- 1 root root 67108880 Jan 21 10:56 log.1

如果我列出主题,它们就消失了。

Kubernetes群集正在Azure上运行。

我认为与永久卷没有任何关系,因为当我在其中手动创建文件时,重新启动后该文件仍然存在。 我认为这与我的kafka配置有关。 如您所见,我为此使用了融合的Docker映像。

任何帮助将不胜感激。

1 个答案:

答案 0 :(得分:0)

这只是安装路径上的错误配置。路径必须指向数据和事务日志文件夹,而不是父文件夹。