使用java中的spark连接到cassandra

时间:2016-01-28 05:32:46

标签: scala apache-spark cassandra spark-cassandra-connector nosuchmethod

我正在使用带火花的cassandra 3.2.1,我包括了所有必需的罐子。我试图通过spark连接来自java的cassandra,我收到以下错误,

  

线程中的异常" main" java.lang.NoSuchMethodError:scala.Predef $ .augmentString(Ljava / lang / String;)Lscala / collection / immutable / StringOps;       at akka.util.Duration $。(Duration.scala:76)       at akka.util.Duration $。(Duration.scala)       at akka.actor.ActorSystem $ Settings。(ActorSystem.scala:120)       at akka.actor.ActorSystemImpl。(ActorSystem.scala:426)       at akka.actor.ActorSystem $ .apply(ActorSystem.scala:103)       at akka.actor.ActorSystem $ .apply(ActorSystem.scala:98)       在org.apache.spark.util.AkkaUtils $ .org $ apache $ spark $ util $ AkkaUtils $$ doCreateActorSystem(AkkaUtils.scala:122)       在org.apache.spark.util.AkkaUtils $$ anonfun $ 1.apply(AkkaUtils.scala:55)       在org.apache.spark.util.AkkaUtils $$ anonfun $ 1.apply(AkkaUtils.scala:54)       在org.apache.spark.util.Utils $$ anonfun $ startServiceOnPort $ 1.apply $ mcVI $ sp(Utils.scala:1837)       at scala.collection.immutable.Range.foreach $ mVc $ sp(Range.scala:142)       在org.apache.spark.util.Utils $ .startServiceOnPort(Utils.scala:1828)       在org.apache.spark.util.AkkaUtils $ .createActorSystem(AkkaUtils.scala:57)       在org.apache.spark.SparkEnv $ .create(SparkEnv.scala:223)       在org.apache.spark.SparkEnv $ .createDriverEnv(SparkEnv.scala:163)       在org.apache.spark.SparkContext.createSparkEnv(SparkContext.scala:269)       在org.apache.spark.SparkContext。(SparkContext.scala:272)       在spark.Sample.run(Sample.java:13)       在spark.Sample.main(Sample.java:23)

关于这个的任何想法?我错过了什么。

请参阅下图中的jar和我的示例代码。不知道我在哪里做错了。

Click here to open image

0 个答案:

没有答案