Cassandra无法写入500MB数据

时间:2016-06-02 04:00:56

标签: performance cassandra datastax cql3 high-volume

我试图在一台机器的Windows节点上使用Datastax驱动程序CQL3将2GB(这是Cassandra单键/值的限制)数据写入单个(或多个)列。我几乎无法写入100MB的数据(在通过面对几乎所有类型的异常和配置更改也是如此。如果我尝试写入100MB数据,我必须保持" commitlog_segment_size_in_mb:200"哪个有效;之后Cassandra自杀了。有什么方法可以将2GB数据插入到一个(至少)或多列并查找时间?

0 个答案:

没有答案