Confluent Control Center磁盘空间要求 - 为什么这么大?

时间:2017-10-02 10:22:16

标签: apache-kafka confluent control-center

system requirements for Confluent Control Center表示需要500GB磁盘空间。 CCC似乎在Kafka本身存储了一些数据,所以有人可以告诉我这个存储实际需要什么?即什么阻止CCC在Kubernetes中作为容器部署而没有持久的卷存储?

1 个答案:

答案 0 :(得分:2)

是的,Control Center在Kafka中保留了一些数据以用于滚动聚合,但是它使用Kafka Streams进行了此操作,该数据已配置有RocksDB数据库,并且可以将该信息存储在磁盘上。

最新文档显示少于500GB。

  

控制中心依赖RocksDB中的本地状态。我们建议至少有300 GB的存储空间

如果您使用过Control Center,您将知道可以访问几个月的Kafka历史指标。

当查看大多数公司的平均Oracle或SQL Server数据库时,

300 GB并不是那么多。

  

是什么阻止了CCC在没有持久卷存储的情况下在Kubernetes中作为容器部署的?

除了能够保留历史数据,以及在Pod重新启动和获取数据上具有缓慢的启动时间之外,可能不多。

但是,

8核和32 GB RAM到一个容器可能会使一个笨重的吊舱。