我想执行一个spark项目,使用 spark-cassandra-connector 连接到cassandra,如下所示:
版本:
build.sbt
name := "sparktest"
version := "1.0"
scalaVersion := "2.10.4"
libraryDependencies += "com.datastax.spark" %% "spark-cassandra-connector" % "1.1.0" withSources() withJavadoc()
sparkCassandra.scala
import com.datastax.spark.connector._
import org.apache.spark._
object SparkTest {
def main(args: Array[String]){
val conf = new SparkConf(true).set("spark.cassandra.connection.host", "127.0.0.1")
val sc = new SparkContext("spark://master:7077", "test", conf)
val rdd = sc.cassandraTable("mykeyspace", "users")
println(rdd.count)
}
}
但是当我按
执行这个项目时spark-submit --class "SparkTest" target/scala-2.10/sparktest_2.10-1.0.jar
发生错误
Exception in thread "main" java.io.IOException: Failed to open thrift connection to Cassandra at 127.0.0.1:9160
at com.datastax.spark.connector.cql.CassandraConnector.createThriftClient(CassandraConnector.scala:132)
at com.datastax.spark.connector.cql.CassandraConnector.createThriftClient(CassandraConnector.scala:138)
at com.datastax.spark.connector.cql.CassandraConnector.withCassandraClientDo(CassandraConnector.scala:144)
at com.datastax.spark.connector.rdd.partitioner.CassandraRDDPartitioner.partitions(CassandraRDDPartitioner.scala:158)
at com.datastax.spark.connector.rdd.CassandraRDD.getPartitions(CassandraRDD.scala:294)
at org.apache.spark.rdd.RDD$$anonfun$partitions$2.apply(RDD.scala:204)
at org.apache.spark.rdd.RDD$$anonfun$partitions$2.apply(RDD.scala:202)
at scala.Option.getOrElse(Option.scala:120)
at org.apache.spark.rdd.RDD.partitions(RDD.scala:202)
at org.apache.spark.SparkContext.runJob(SparkContext.scala:1135)
at org.apache.spark.rdd.RDD.count(RDD.scala:904)
at SparkTest$.main(sparkcassandra.scala:14)
at SparkTest.main(sparkcassandra.scala)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:606)
at org.apache.spark.deploy.SparkSubmit$.launch(SparkSubmit.scala:328)
at org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:75)
at org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala)
Caused by: java.lang.NoSuchMethodError: org.apache.cassandra.thrift.TFramedTransportFactory.openTransport(Ljava/lang/String;I)Lorg/apache/thrift/transport/TTransport;
at com.datastax.spark.connector.cql.DefaultConnectionFactory$.createThriftClient(CassandraConnectionFactory.scala:47)
at com.datastax.spark.connector.cql.CassandraConnector.createThriftClient(CassandraConnector.scala:127)
... 19 more
我发现如果输入错误的表名,就会说“找不到表” 似乎连接成功了。
但是当我使用cassandra表rdd时会导致上述错误。 我无法弄清楚这个错误是什么原因,如果有人可以帮助我?非常感谢!
答案 0 :(得分:0)
我认为你cassandra没有在9160端口上运行。你可以在cassandra.yaml文件中验证它,并使用telnet 127.0.0.1 9160进行验证,看看它可以telnet到这个端口。
答案 1 :(得分:0)
之前我遇到过保存问题。 此错误是由Cassandra驱动程序和主机之间的版本不匹配引起的。 因此,请检查您的spark-application-jar中是否包含较低版本的Cassandra驱动程序。 在这种情况下,您应该使用Cassandra驱动程序2.1.x。
答案 2 :(得分:0)
通过两次更正解决了这个问题:
val sc = new SparkContext(conf)
进一步的步骤没有其他变化。 希望它也适合你。