我试图使用spark和deepLearning4J执行使用sbt-assembly构建的胖罐,不幸的是在执行过程中我遇到了线程中的异常" main"许多罐子的java.lang.NoClassDefFoundError:错误。 我尝试在spark-submit中使用--jars选项添加jar,但是当我添加一个jar时,我对来自另一个依赖项的另一个类的同一错误感到沮丧。
如果我理解的话,由sbt-assembly生成的FatJar应该可以防止这种问题,因为它包含了所有需要的jar。
我的scala文件进入 myproject / src / main / scala / xxx / spark / yyy /
也许是因为合并策略?
我加入build.sbt文件,如果可以帮助的话!
提前谢谢。
select col1
from t
group by col1
having sum(case when col2 = 2 then 1 else 0 end) = 0 and
sum(case when col3 = 'B' then 1 else 0 end) = 0;