我想在Spark中访问Cassandra表。以下是我正在使用的版本
以下是剧本:
sc.stop
import com.datastax.spark.connector._, org.apache.spark.SparkContext, org.apache.spark.SparkContext._, org.apache.spark.SparkConf
val conf = new SparkConf(true).set("spark.cassandra.connection.host", "localhost")
val sc = new SparkContext(conf)
val test_spark_rdd = sc.cassandraTable("test1", "words")
当我运行最后一个语句时出现错误
:32:错误:值cassandraTable不是其成员 org.apache.spark.SparkContext val test_spark_rdd = sc.cassandraTable(“test1”,“words”)
解决错误的提示会有所帮助。
由于
答案 0 :(得分:0)
实际上在shell上你需要导入相应的包。无需做任何额外的事情。
e.g。阶> import com.datastax.spark.connector ._;