无法创建SparkContext(不支持的major.minor版本52.0)

时间:2016-06-06 05:41:21

标签: java scala maven apache-spark

我的计算机上没有安装Java 1.8,但是我收到此错误。其他stackoverflow解决方案建议使用Java 1.8来编译代码。我想了解以下错误的原因。

  

线程“main”中的异常java.lang.UnsupportedClassVersionError:com / typesafe / config / ConfigValue:不支持的major.minor版本52.0

这是我的代码:

的pom.xml

<dependency>
  <groupId>org.apache.spark</groupId>
  <artifactId>spark-core_2.10</artifactId>
  <version>1.5.1</version>
</dependency>

Scala代码

object SparkWithHbase {
  def main(args: Array[String]) {
    System.out.println("Java Version: " + System.getProperty("java.version"))

    //Initiate spark context with spark master URL. You can modify the URL per your environment.
    val sparkConf = new SparkConf().setAppName("Spark Hbase").setMaster("spark://10.41.50.126:7077")
    val sc = new SparkContext(sparkConf) // Failing at this line
}

0 个答案:

没有答案