Spark在Zeppelin中正常工作,但是当我添加一个jar依赖项并运行类似:
时val df = spark.read.json("path/file1")
我收到以下错误:
com.fasterxml.jackson.databind.JsonMappingException: Jackson version is too old 2.5.4
如果我第二次运行它:
java.lang.NoClassDefFoundError: Could not initialize class org.apache.spark.rdd.RDDOperationScope$
(不确定第二次运行时错误的原因)
如果我没有附加jar,则代码正常工作。这可能与冲突有关吗?
尝试在Spark中的解释器选项中执行以下操作,但仍然出现相同的错误:
artifact: path/utils.jar
exclude: com.fasterxml.jackson.databind (Is this the correct way to write how to exclude jackson?)
任何见解?