错误:值cassandraTable不是org.apache.spark.SparkContext

时间:2015-11-06 17:38:22

标签: apache-spark cassandra connector

我想在Spark中访问Cassandra表。以下是我正在使用的版本

  • spark:spark-1.4.1-bin-hadoop2.6
  • cassandra:apache-cassandra-2.2.3
  • spark cassandra接口:spark-cassandra-connector-java_2.10-1.5.0-M2.jar

以下是剧本:

sc.stop

import com.datastax.spark.connector._, org.apache.spark.SparkContext, org.apache.spark.SparkContext._, org.apache.spark.SparkConf
val conf = new SparkConf(true).set("spark.cassandra.connection.host", "localhost")
val sc = new SparkContext(conf)
val test_spark_rdd = sc.cassandraTable("test1", "words")

当我运行最后一个语句时出现错误

  

:32:错误:值cassandraTable不是其成员   org.apache.spark.SparkContext          val test_spark_rdd = sc.cassandraTable(“test1”,“words”)

解决错误的提示会有所帮助。

由于

1 个答案:

答案 0 :(得分:0)

实际上在shell上你需要导入相应的包。无需做任何额外的事情。

e.g。阶> import com.datastax.spark.connector ._;