我尝试使用Spark-cassandra-Connector将RDD [CassandraRow]写入现有的Cassandra表。这是我的一段代码
val conf = new SparkConf().setAppName(getClass.getSimpleName)
.setMaster("local[*]")
.set("spark.cassandra.connection.host", host)
val sc = new SparkContext("local[*]", keySpace, conf)
val rdd = sc.textFile("hdfs://hdfs-host:8020/Users.csv")
val columns = Array("ID", "FirstName", "LastName", "Email", "Country")
val types = Array("int", "string", "string", "string", "string")
val crdd=rdd.map(p => {
var tokens = p.split(",")
new CassandraRow(columns,tokens)
})
val targetedColumns = SomeColumns.seqToSomeColumns(columns)
crdd.saveToCassandra(keySpace, tableName, targetedColumns, WriteConf.fromSparkConf(conf))
当我运行此代码时,我得到以下异常
Exception in thread "main" java.util.NoSuchElementException: Column not found ID in table demo.usertable
这是表的实际架构
CREATE TABLE usertable (
id int,
country text,
email text,
firstname text,
lastname text,
PRIMARY KEY ((id))
)
有什么建议吗? 感谢
答案 0 :(得分:3)
在Cassandra中,Keyspace,表格和列名称区分大小写。您是否尝试过调整代码以使用与表定义相同的大小写? (例如,使用'id'而不是'ID')。