在跨区域混合接触点时,DataStax Spark Cassandra连接器无法连接

时间:2016-04-19 00:49:44

标签: scala apache-spark cassandra

至少这是它的样子。我可以列出任何数量的东海岸或西海岸机器,它们只是在它们混合时才会破裂。

我使用最新的(1.6.0-M2)DataStax Spark Cassandra Connector和Apache Spark(1.6.1)。我目前只有一个联系点,并希望为故障转移添加更多节点。该文档最近更新为声明支持逗号分隔列表。如果我列出来自West&的主机东海岸数据中心,我得到了类似的错误:

  

java.io.IOException:无法打开到Cassandra的本机连接   {10.240.0.11,10.240.0.12,10.240.0.9,10.240.0.8,10.240.0.7,   10.240.0.10}:9042

这是司机的一些神器吗?对本地数据中心的偏好?我可以不配置它进行完全故障转移吗?我应该小心只在一个地区提供几个接触点吗?

1 个答案:

答案 0 :(得分:0)

嗯,这很令人尴尬。我没有阅读所有错误消息:

  

引起:java.lang.IllegalArgumentException:联系点包含   多个数据中心:us-central1,us-east1

这是一种奇怪的行为,但我已经怀疑过了。