我们正在使用Spark SQL和Cassandra对大量数据进行每小时聚合。我们开发了一个Java客户端,它每小时运行一次,使用Spark SQL进行聚合。对于历史负载,当我们运行此程序10天(240小时)的数据时,经过大约100小时处理后,Cassandra失败并出现以下错误:
com.datastax.driver.core.exceptions.NoHostAvailableException:全部 尝试查询失败的主机(未尝试主机)
导致卡桑德拉失败的原因是什么?
答案 0 :(得分:2)
在为"spark.cassandra.read.timeout_ms"
和"spark.cassandra.connection.timeout_ms"