我正在尝试使用Spark在Hadoop集群上运行一些测试类。这是我正在使用的命令:
sudo spark-submit --class "Test" --master yarn spark-proj-1.0.jar
这是我得到的错误:
线程中的异常" main"因为java.lang.UnsupportedClassVersionError: 测试:不支持的major.minor版本52.0
该错误应该意味着使用比用于运行它们的Java版本更高的Java版本编译类。我使用Java 1.8编译了类,我在集群上安装了Spark 1.3。我安装了Java 1.7,但之后在所有节点上都安装了1.8。 java -version
命令告诉我我确实在使用Java 1.8:
openjdk version" 1.8.0_71"
OpenJDK运行时环境(版本1.8.0_71-b15)
OpenJDK 64位服务器VM(版本25.71-b15,混合模式)