如何杀死Kafka集群中的分布式工作者?

时间:2016-10-26 09:55:20

标签: apache-kafka apache-kafka-connect

我正在使用Apache Kafka并使用分布式工作程序。我可以按照以下方式启动我的工作人员:

// Command to start the distributed worker.
"bin/connect-distributed.sh config/connect-distributed.properties"

这是官方文件。在此之后,我们可以创建连接器和任务。这很好。

但是当我更改连接器或任务逻辑时,我应该将新的jar添加到kafka的类路径中。在此之后我应该重新开始工作。

我不知道它应该如何正确我认为我们应该停止并管理工人。

但是当我想要停止工作时,我不知道我怎么能正确地做到这一点。     当然,我可以通过ps aux | grep worker找到我的进程,杀死它并杀死我应该在ps找到的休息服务器。但我认为这是奇怪的情况。杀死两个进程并不是一个好主意,但我找不到任何有关我们如何以其他方式进行此操作的信息。

如果你知道正确的方法,请帮助我:)

感谢您的时间。

1 个答案:

答案 0 :(得分:3)

  

杀死两个进程不是一个好主意

ConnectDistributed一个过程。没有单独的REST服务器可以停止。

是的,:connector/pause后跟kill <pid>是停止它的正确方法。

如果已安装最新版本的Confluent Platform,则可以使用systemctl停止/开始。