我的计算机上没有安装Java 1.8,但是我收到此错误。其他stackoverflow解决方案建议使用Java 1.8来编译代码。我想了解以下错误的原因。
线程“main”中的异常java.lang.UnsupportedClassVersionError:com / typesafe / config / ConfigValue:不支持的major.minor版本52.0
这是我的代码:
的pom.xml
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.10</artifactId>
<version>1.5.1</version>
</dependency>
Scala代码
object SparkWithHbase {
def main(args: Array[String]) {
System.out.println("Java Version: " + System.getProperty("java.version"))
//Initiate spark context with spark master URL. You can modify the URL per your environment.
val sparkConf = new SparkConf().setAppName("Spark Hbase").setMaster("spark://10.41.50.126:7077")
val sc = new SparkContext(sparkConf) // Failing at this line
}