我已经编写了一个Spark结构化的流应用程序(我将Scala
与sbt
一起使用),现在我必须创建一个集成测试。不幸的是,我遇到了无法解决的依赖问题。我正在使用带有sbt的scala。
我的依存关系如下
val xxxxxxx = "xx.xxxx" %% "xxxx-xxxxxxx" %"x.x.x" % "test,it" embeddedExclusions
val sparkCore = "org.apache.spark" %% "spark-core" % "2.4.0" % "provided"
val sparkStreaming = "org.apache.spark" %% "spark-streaming" % "2.4.0" % "provided"
val sparkSql = "org.apache.spark" %% "spark-sql" % "2.4.0" % "provided"
val sparkDse = "com.datastax.dse" % "dse-spark-dependencies" % "6.7.2" % "provided" datastaxDseExclusions
val sparkKafka = "org.apache.spark" %% "spark-sql-kafka-0-10" % "2.4.0" % "provided" sparkExclusions
// val jacksonDatabind = "com.fasterxml.jackson.core" % "jackson-databind" % "2.9.6"
此xxxxxxx
依赖性来自公司的依赖性,用于集成测试(提供cassandra docker-container等)。此依赖项内部具有以下依赖项:
val dockerTestkit = "com.whisk" %% "docker-testkit-scalatest" % "0.9.8"
val dockerTestkitImpl = "com.whisk" %% "docker-testkit-impl-spotify" % "0.9.8"
val dockerTestkitConfig = "com.whisk" %% "docker-testkit-config" % "0.9.8"
我遇到的问题是com.fasterxml.jackson
和org.apache.spark
中的com.whisk
依赖关系
org.apache.spark
使用com.fasterxml.jackson
版本2.6.7
com.whisk
使用com.fasterxml.jackson
版本2.9.5
第一种方法:
我从com.fasterxml.jackson
中排除了org.apache.spark
依赖性,然后得到:
[info] ...
[info] Cause: com.fasterxml.jackson.databind.JsonMappingException: Incompatible Jackson version: 2.9.5
[info] at com.fasterxml.jackson.module.scala.JacksonModule$class.setupModule(JacksonModule.scala:64)
[info] at com.fasterxml.jackson.module.scala.DefaultScalaModule.setupModule(DefaultScalaModule.scala:19)
[info] at com.fasterxml.jackson.databind.ObjectMapper.registerModule(ObjectMapper.java:751)
[info] at org.apache.spark.rdd.RDDOperationScope$.<init>(RDDOperationScope.scala:82)
[info] at org.apache.spark.rdd.RDDOperationScope$.<clinit>(RDDOperationScope.scala)
[info] at org.apache.spark.sql.execution.SparkPlan.executeQuery(SparkPlan.scala:152)
[info] at org.apache.spark.sql.execution.SparkPlan.execute(SparkPlan.scala:127)
[info] at org.apache.spark.sql.execution.QueryExecution.toRdd$lzycompute(QueryExecution.scala:80)
[info] at org.apache.spark.sql.execution.QueryExecution.toRdd(QueryExecution.scala:80)
[info] at org.apache.spark.sql.cassandra.CassandraSourceRelation.insert(CassandraSourceRelation.scala:131)
[info] ...
第二种方法:
我从com.fasterxml.jackson
中排除了xxxxxxx
,然后得到:
[error] Caused by: java.lang.ClassNotFoundException: com.fasterxml.jackson.databind.deser.std.ReferenceTypeDeserializer
[error] at java.net.URLClassLoader.findClass(URLClassLoader.java:381)
[error] at java.lang.ClassLoader.loadClass(ClassLoader.java:424)
[error] at java.lang.ClassLoader.loadClass(ClassLoader.java:357)
[error] at java.lang.ClassLoader.defineClass1(Native Method)
[error] at java.lang.ClassLoader.defineClass(ClassLoader.java:763)
[error] at java.security.SecureClassLoader.defineClass(SecureClassLoader.java:142)
[error] at java.net.URLClassLoader.defineClass(URLClassLoader.java:467)
[error] at java.net.URLClassLoader.access$100(URLClassLoader.java:73)
[error] at java.net.URLClassLoader$1.run(URLClassLoader.java:368)
[error] at java.net.URLClassLoader$1.run(URLClassLoader.java:362)
[error] at java.security.AccessController.doPrivileged(Native Method)
[error] at java.net.URLClassLoader.findClass(URLClassLoader.java:361)
[error] at java.lang.ClassLoader.loadClass(ClassLoader.java:424)
[error] at java.lang.ClassLoader.loadClass(ClassLoader.java:357)
[error] at com.fasterxml.jackson.datatype.guava.GuavaModule.setupModule(GuavaModule.java:55)
[error] at com.fasterxml.jackson.databind.ObjectMapper.registerModule(ObjectMapper.java:718)
[error] at com.spotify.docker.client.ObjectMapperProvider.<clinit>(ObjectMapperProvider.java:74)
[error] at com.spotify.docker.client.DockerConfigReader.<clinit>(DockerConfigReader.java:58)
[error] at com.spotify.docker.client.auth.ConfigFileRegistryAuthSupplier.<init>(ConfigFileRegistryAuthSupplier.java:47)
[error] at com.spotify.docker.client.DefaultDockerClient$Builder.build(DefaultDockerClient.java:3141)
我认为较旧版本的com.fasterxml.jackson
没有此类。
问题
com.fasterxml.jackson
依赖版本?答案 0 :(得分:1)
我尝试了两种方法
1。方法:对xxxxxxx
项目中的依赖项进行着色
我将程序集插件添加到plugin.sbt
addSbtPlugin("com.eed3si9n" % "sbt-assembly" % "0.14.7")
,并为build.sbt
添加了一些着色规则。我正在为xxxxxxx
项目
assemblyShadeRules in assembly := Seq(
ShadeRule
.rename("com.fasterxml.jackson.**" -> "embedded.com.fasterxml.jackson.@1")
.inAll
)
这种阴影有效。 com.fasterxml.jackson
项目中的所有embedded.com.fasterxml.jackson.*
依赖项都被重写为xxxxxxx
。 (我解压缩了jar并反编译了类,看看发生了什么)
不幸的是,重写并未解决root
项目中的问题(并且我不知道为什么)。所以我尝试了:
2。方法在dependencyOverrides
中使用commonSettings
我向root
项目添加了以下依赖项:
val jacksonCore = "com.fasterxml.jackson.core" % "jackson-core" % "2.9.6"
val jacksonDatabind = "com.fasterxml.jackson.core" % "jackson-databind" % "2.9.6"
val jacksonModule = "com.fasterxml.jackson.module" %% "jackson-module-scala" % "2.9.6"
我没有从中排除com.fasterxml.jackson
依赖项
xxxxxxx
我在通用设置中添加了以下设置:
lazy val commonSettings = Seq(
scalaVersion := library.version.scala,
...
dependencyOverrides ++= Seq(
library.jacksonDatabind,
library.jacksonCore,
library.jacksonModule
),
...
)
那行得通,异常消失了。不幸的是,我无法解释为什么这样做(以及如何)以及为什么阴影不起作用。 :(