我正在Kubernetes上运行Kafka Connect(8-16个节点,自动缩放)。我总共定义了44个连接器,每个Kafka主题一个(每个主题一个分区)。这些主题由Debezium / Postgresql产生。有3个Kafka节点。每个连接器的task.max设置为4。由于java.lang.IllegalStateException:由于没有为分区-0当前分配,我的大多数连接器(但不是每个都)有一个(总是一个)失败的任务。
这里不是Kafka专家,请注意;)我假设有3个Kafka节点,所以3位工作人员做得很好,第4项任务没有任何关系,因此失败。但是为什么有时有4个任务运行得很好呢?
此外,我经常遇到“由于重新平衡导致操作冲突”的问题,这种情况可能持续几分钟甚至几小时。最近,我删除了所有Pod,它们又重新启动,问题消失了,但这不是长期解决方案。
tasks.max建议值是多少?预先感谢!
例外:
java.lang.IllegalStateException: No current assignment for partition table-0
at org.apache.kafka.clients.consumer.internals.SubscriptionState.assignedState(SubscriptionState.java:259)
at org.apache.kafka.clients.consumer.internals.SubscriptionState.seek(SubscriptionState.java:264)
at org.apache.kafka.clients.consumer.KafkaConsumer.seek(KafkaConsumer.java:1501)
at org.apache.kafka.connect.runtime.WorkerSinkTask.rewind(WorkerSinkTask.java:601)
at org.apache.kafka.connect.runtime.WorkerSinkTask.access$1200(WorkerSinkTask.java:70)
at org.apache.kafka.connect.runtime.WorkerSinkTask$HandleRebalance.onPartitionsAssigned(WorkerSinkTask.java:675)
at org.apache.kafka.clients.consumer.internals.ConsumerCoordinator.onJoinComplete(ConsumerCoordinator.java:291)
at org.apache.kafka.clients.consumer.internals.AbstractCoordinator.joinGroupIfNeeded(AbstractCoordinator.java:406)
at org.apache.kafka.clients.consumer.internals.AbstractCoordinator.ensureActiveGroup(AbstractCoordinator.java:340)
at org.apache.kafka.clients.consumer.internals.ConsumerCoordinator.poll(ConsumerCoordinator.java:341)
at org.apache.kafka.clients.consumer.KafkaConsumer.updateAssignmentMetadataIfNeeded(KafkaConsumer.java:1214)
at org.apache.kafka.clients.consumer.KafkaConsumer.poll(KafkaConsumer.java:1179)
at org.apache.kafka.clients.consumer.KafkaConsumer.poll(KafkaConsumer.java:1164)
at org.apache.kafka.connect.runtime.WorkerSinkTask.pollConsumer(WorkerSinkTask.java:445)
at org.apache.kafka.connect.runtime.WorkerSinkTask.poll(WorkerSinkTask.java:318)
at org.apache.kafka.connect.runtime.WorkerSinkTask.iteration(WorkerSinkTask.java:226)
at org.apache.kafka.connect.runtime.WorkerSinkTask.execute(WorkerSinkTask.java:194)
at org.apache.kafka.connect.runtime.WorkerTask.doRun(WorkerTask.java:175)
at org.apache.kafka.connect.runtime.WorkerTask.run(WorkerTask.java:219)
at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:511)
at java.util.concurrent.FutureTask.run(FutureTask.java:266)
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149)
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624)
at java.lang.Thread.run(Thread.java:748
接收器连接器配置:
connector.class com.wepay.kafka.connect.bigquery.BigQuerySinkConnector
autoUpdateSchemas true
sanitizeTopics true
autoCreateTables true
topics <topic-name>
tasks.max 3
schemaRegistryLocation http://<ip>:8081
project <big-query-project>
maxWriteSize 10000
datasets .*=<big-query-dataset>
task.class com.wepay.kafka.connect.bigquery.BigQuerySinkTask
keyfile /credentials/<credentials-file>.json
name <connector-name>
schemaRetriever com.wepay.kafka.connect.bigquery.schemaregistry.schemaretriever.SchemaRegistrySchemaRetriever
tableWriteWait 1000
bufferSize 100000
它抛出了异常java.lang.IllegalStateException: No current assignment for [...]
答案 0 :(得分:1)
属性tasks.max
的值取决于几个因素。最重要的是特定的连接器。
特殊连接器取决于其逻辑,并且tasks.max
的值计算将要创建的Task
的数量。
例如FileStreamSourceConnector
总是创建1个任务,因此即使您传递的值大于1,它也只会创建一个。
与PostgresConnector
parallel 等于1的情况相同。
tasks.max
的值还应该取决于其他因素,例如:Kafka Connect模式,您拥有多少个Kafka Connect实例,计算机的CPU等。
我了解您使用的是SourceConnector(PostgresConnector
)。
源连接器不轮询来自Kafka的数据。您发布的异常与某些SinkConnector
有关。
如果正在使用SinkConnector
,则您的tasks.max
不应超过分区数。
如果您启动的任务多于分区数,则某些任务将处于空闲状态(状态正在运行,但它们不处理数据),并且可能会发生重新平衡。