我正在为我的计算机上的2工作集群运行的Spark 2.1.0构建一个小测试应用程序,并在我的应用程序的jar文件中包装依赖库。如何在spark-submit期间告诉Spark应用程序的jar文件中的库?否则我在线程“main”java.lang.NoClassDefFoundError。
中得到Exception或者依赖库是否应该复制到Spark?
提前致谢。
答案 0 :(得分:0)
更简单的方法是构建一个超级jar - 将pom中的所有依赖项添加到jar中。
另一种最好的方法是 -