我在群集中有4个cassandra节点,并且有一个列族有10列,其中行不能生长得非常宽(可能最多1000列)。
我有“峰值”写入,我在5-10分钟范围内插入最多500 000条记录。
我使用node.js驱动程序:node-cassandra-cql
3个节点工作正常,但每次重写时都有一个节点崩溃。
目前,所有节点的数据大小约为1.5 GB,有问题的节点的数据大小为1.9 GB。
所有节点的最大堆空间为1GB(我的机器上有4 GB RAM,因此默认的cassandra配置文件计算了这个堆的数量)
我使用默认的cassandra配置,除了我增加了写/读超时。
问题:有谁知道这可能是什么原因? 堆大小真的那么小吗? 为这个用例配置cassandra集群的方法和方法(在小时间范围内进行大量写入,其他时间实际上什么也不做或只是小写入)
我没有尝试手动增加堆大小,首先我想知道是否有其他配置而不是增加它。