无法使用spark-cassandra-connector

时间:2014-12-04 07:22:57

标签: scala cassandra apache-spark

我想执行一个spark项目,使用 spark-cassandra-connector 连接到cassandra,如下所示:

版本:

  • 卡桑德拉:2.1.2
  • CassandraDriver:2.1.3
  • Spark:1.1.0

build.sbt

name := "sparktest"

version := "1.0"

scalaVersion := "2.10.4"

libraryDependencies += "com.datastax.spark" %% "spark-cassandra-connector" % "1.1.0" withSources() withJavadoc()

sparkCassandra.scala

import com.datastax.spark.connector._
import org.apache.spark._

object SparkTest {
  def main(args: Array[String]){
    val conf = new SparkConf(true).set("spark.cassandra.connection.host", "127.0.0.1")
    val sc = new SparkContext("spark://master:7077", "test", conf)

    val rdd = sc.cassandraTable("mykeyspace", "users")
    println(rdd.count) 
  }
}

但是当我按

执行这个项目时
spark-submit --class "SparkTest"  target/scala-2.10/sparktest_2.10-1.0.jar

发生错误

Exception in thread "main" java.io.IOException: Failed to open thrift connection to Cassandra at 127.0.0.1:9160
        at com.datastax.spark.connector.cql.CassandraConnector.createThriftClient(CassandraConnector.scala:132)
        at com.datastax.spark.connector.cql.CassandraConnector.createThriftClient(CassandraConnector.scala:138)
        at com.datastax.spark.connector.cql.CassandraConnector.withCassandraClientDo(CassandraConnector.scala:144)
        at com.datastax.spark.connector.rdd.partitioner.CassandraRDDPartitioner.partitions(CassandraRDDPartitioner.scala:158)
        at com.datastax.spark.connector.rdd.CassandraRDD.getPartitions(CassandraRDD.scala:294)
        at org.apache.spark.rdd.RDD$$anonfun$partitions$2.apply(RDD.scala:204)
        at org.apache.spark.rdd.RDD$$anonfun$partitions$2.apply(RDD.scala:202)
        at scala.Option.getOrElse(Option.scala:120)
        at org.apache.spark.rdd.RDD.partitions(RDD.scala:202)
        at org.apache.spark.SparkContext.runJob(SparkContext.scala:1135)
        at org.apache.spark.rdd.RDD.count(RDD.scala:904)
        at SparkTest$.main(sparkcassandra.scala:14)
        at SparkTest.main(sparkcassandra.scala)
        at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
        at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
        at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
        at java.lang.reflect.Method.invoke(Method.java:606)
        at org.apache.spark.deploy.SparkSubmit$.launch(SparkSubmit.scala:328)
        at org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:75)
        at org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala)
Caused by: java.lang.NoSuchMethodError: org.apache.cassandra.thrift.TFramedTransportFactory.openTransport(Ljava/lang/String;I)Lorg/apache/thrift/transport/TTransport;
        at com.datastax.spark.connector.cql.DefaultConnectionFactory$.createThriftClient(CassandraConnectionFactory.scala:47)
        at com.datastax.spark.connector.cql.CassandraConnector.createThriftClient(CassandraConnector.scala:127)
        ... 19 more

我发现如果输入错误的表名,就会说“找不到表” 似乎连接成功了。

但是当我使用cassandra表rdd时会导致上述错误。 我无法弄清楚这个错误是什么原因,如果有人可以帮助我?非常感谢!

3 个答案:

答案 0 :(得分:0)

我认为你cassandra没有在9160端口上运行。你可以在cassandra.yaml文件中验证它,并使用telnet 127.0.0.1 9160进行验证,看看它可以telnet到这个端口。

答案 1 :(得分:0)

之前我遇到过保存问题。 此错误是由Cassandra驱动程序和主机之间的版本不匹配引起的。 因此,请检查您的spark-application-jar中是否包含较低版本的Cassandra驱动程序。 在这种情况下,您应该使用Cassandra驱动程序2.1.x。

答案 2 :(得分:0)

通过两次更正解决了这个问题:

  1. 使用localhost而不是IP。
  2. val sc = new SparkContext(conf)
  3. 进一步的步骤没有其他变化。 希望它也适合你。