卡夫卡:消费者崩溃

时间:2016-08-30 19:52:45

标签: java apache-kafka message-queue

我继承了一些我在另一个项目中实现的Kafka代码并遇到了一个问题......在消费者收到来自生产者的3995条消息后,它崩溃并发出以下错误:

ERROR Error while accepting connection (kafka.network.Acceptor) 
java.io.IOException: Too many open files

Information about data being sent:
Very bursty around the time of crash
Always crashes at 3995

我在Centos虚拟机上运行它,我已轻松地通过它运行其他较小的数据集。谢谢你的时间!

1 个答案:

答案 0 :(得分:2)

"太多打开的文件"你能输入' lsof | wc -l'在你的linux中知道打开了多少文件。

按照guide增加已打开的号码文件:

达到了最大文件数,如何解决此问题? 许多应用程序(如Oracle数据库或Apache Web服务器)需要此范围相当高。因此,您可以通过在内核变量/ proc / sys / fs / file-max中设置新值来增加打开文件的最大数量,如下所示(以root身份登录):

sysctl -w fs.file-max=100000