我正在使用带火花的cassandra 3.2.1,我包括了所有必需的罐子。我试图通过spark连接来自java的cassandra,我收到以下错误,
线程中的异常" main" java.lang.NoSuchMethodError:scala.Predef $ .augmentString(Ljava / lang / String;)Lscala / collection / immutable / StringOps; at akka.util.Duration $。(Duration.scala:76) at akka.util.Duration $。(Duration.scala) at akka.actor.ActorSystem $ Settings。(ActorSystem.scala:120) at akka.actor.ActorSystemImpl。(ActorSystem.scala:426) at akka.actor.ActorSystem $ .apply(ActorSystem.scala:103) at akka.actor.ActorSystem $ .apply(ActorSystem.scala:98) 在org.apache.spark.util.AkkaUtils $ .org $ apache $ spark $ util $ AkkaUtils $$ doCreateActorSystem(AkkaUtils.scala:122) 在org.apache.spark.util.AkkaUtils $$ anonfun $ 1.apply(AkkaUtils.scala:55) 在org.apache.spark.util.AkkaUtils $$ anonfun $ 1.apply(AkkaUtils.scala:54) 在org.apache.spark.util.Utils $$ anonfun $ startServiceOnPort $ 1.apply $ mcVI $ sp(Utils.scala:1837) at scala.collection.immutable.Range.foreach $ mVc $ sp(Range.scala:142) 在org.apache.spark.util.Utils $ .startServiceOnPort(Utils.scala:1828) 在org.apache.spark.util.AkkaUtils $ .createActorSystem(AkkaUtils.scala:57) 在org.apache.spark.SparkEnv $ .create(SparkEnv.scala:223) 在org.apache.spark.SparkEnv $ .createDriverEnv(SparkEnv.scala:163) 在org.apache.spark.SparkContext.createSparkEnv(SparkContext.scala:269) 在org.apache.spark.SparkContext。(SparkContext.scala:272) 在spark.Sample.run(Sample.java:13) 在spark.Sample.main(Sample.java:23)
关于这个的任何想法?我错过了什么。
请参阅下图中的jar和我的示例代码。不知道我在哪里做错了。