Flink Cassandra超时错误

时间:2017-03-30 18:39:48

标签: apache-kafka apache-flink cassandra-2.1

我正在为Kafka Flink Cassandra Sink工作。 Flink代码工作正常近4个小时。在那之后,我得到了一个例外。

  

引起:com.datastax.driver.core.exceptions.WriteTimeoutException:在一致性LOCAL_ONE的写查询期间Cassandra超时(需要1个副本,但只有0确认写入)

有人可以帮忙吗?

2 个答案:

答案 0 :(得分:0)

这与Flink无关,但与Cassandra无关:你可能在Cassandra写得太快了。检查分配给Cassandra的RAM量,CPU数量...... ....

答案 1 :(得分:0)

C *没有响应客户端,可能是因为

  • C *正在做GC;你可以检查gc.log如果你启用它。 C *也可能具有高CPU执行GC
  • 如果磁盘写入吞吐量无法跟上传入数据。您可能会看到提交日志堆积。在正常情况下,一旦将数据刷新到磁盘,就应该回收提交日志。

此外,我建议您将设置检查到RF#和写入/读取查询的一致性级别。如果有另一个副本可用(RF = 2+),您可能有机会从空闲节点检索数据副本。