你如何获得一个基本的Hello,世界!使用Cassandra在Spark中运行的示例?到目前为止,我们已经找到了这个有用的答案:
How to load Spark Cassandra Connector in the shell?
完美无缺!
然后我们尝试按照文档和入门示例进行操作:
https://github.com/datastax/spark-cassandra-connector/blob/master/doc/1_connecting.md
它说这样做:
import com.datastax.spark.connector.cql.CassandraConnector
CassandraConnector(conf).withSessionDo { session =>
session.execute("CREATE KEYSPACE test2 WITH REPLICATION = {'class': 'SimpleStrategy', 'replication_factor': 1 }")
session.execute("CREATE TABLE test2.words (word text PRIMARY KEY, count int)")
}
但它说我们没有com.datastax.spark.connector.cql
?
顺便说一句,我们从这里得到了Spark连接器:
Maven Central Repository (spark-cassandra-connector-java_2.11)
那么,在本地运行Spark和Cassandra后,如何创建键空间,表格和插入行?
答案 0 :(得分:2)
您下载的jar只有Java api,所以它不能使用Scala Spark Shell。我建议您按照Spark Cassandra Connector页面上的说明进行操作。
https://github.com/datastax/spark-cassandra-connector/blob/master/doc/13_spark_shell.md
这些说明将构建包含所有依赖项的完整程序集jar,并使用--jars将其添加到Spark Shell类路径中。