Spark无法找到" spark-version-info.properties"当从氨基酸文字

时间:2016-10-22 16:10:56

标签: scala apache-spark ammonite

我有一个创建火花背景的菊石脚本:

#!/usr/local/bin/amm

import ammonite.ops._

import $ivy.`org.apache.spark:spark-core_2.11:2.0.1`

import org.apache.spark.{SparkConf, SparkContext}

@main
def main(): Unit = {
  val sc =  new SparkContext(new SparkConf().setMaster("local[2]").setAppName("Demo"))
}

当我运行此脚本时,它会抛出错误:

Exception in thread "main" java.lang.ExceptionInInitializerError
Caused by: org.apache.spark.SparkException: Error while locating file spark-version-info.properties
...
Caused by: java.lang.NullPointerException
    at java.util.Properties$LineReader.readLine(Properties.java:434)
    at java.util.Properties.load0(Properties.java:353)

脚本不是从spark安装目录运行的,并且不知道它或打包此版本信息的资源 - 它只知道常春藤依赖项。所以问题可能是这个资源信息不在常春藤依赖项的类路径上。我见过其他spark"独立脚本"所以我希望我能在这里做同样的事情。

我捅了一下试图了解发生了什么。我希望我可以在运行时以编程方式将一些构建信息破解到系统属性中。

异常的来源来自spark库中的package.scala。相关的代码位是

val resourceStream = Thread.currentThread().getContextClassLoader.
  getResourceAsStream("spark-version-info.properties")

try {
  val unknownProp = "<unknown>"
  val props = new Properties()
  props.load(resourceStream) <--- causing a NPE?
  (
    props.getProperty("version", unknownProp),
    // Load some other properties
  )
} catch {
  case npe: NullPointerException =>
    throw new SparkException("Error while locating file spark-version-info.properties", npe)

似乎隐含的假设是,如果在资源中找不到版本信息,props.load将失败并显示NPE。 (这对读者来说不太清楚!)

NPE本身看起来像java.util.Properties.java中的代码:

class LineReader {
    public LineReader(InputStream inStream) {
        this.inStream = inStream;
        inByteBuf = new byte[8192];
    }

    ...
    InputStream inStream;
    Reader reader;

    int readLine() throws IOException {
      ...
      inLimit = (inStream==null)?reader.read(inCharBuf)
                                :inStream.read(inByteBuf);

LineReader由null InputStream构造,类在内部解释为reader非空,应该使用 - 但它也是null。 (这种东西真的在标准库中吗?看起来很不安全......)

通过查看带有spark的bin/spark-shell,它会在-Dscala.usejavacp=true启动时添加spark-submit。这是正确的方向吗?

感谢您的帮助!

1 个答案:

答案 0 :(得分:1)

以下似乎适用于1.11版本的1.0.1版本但不是实验性的。

可以在Spark 2.2上更好地实现

#!/usr/local/bin/amm

import ammonite.ops._
import $ivy.`org.apache.spark:spark-core_2.11:2.2.0` 
import $ivy.`org.apache.spark:spark-sql_2.11:2.2.0`
import org.apache.spark.{SparkConf, SparkContext}
import org.apache.spark.sql._ 
import org.apache.spark.sql.SparkSession

@main
def main(): Unit = {
    val sc =  new SparkContext(new SparkConf().setMaster("local[2]").setAppName("Demo"))
}

或更多扩展答案:

@main
def main(): Unit = {
    val spark = SparkSession.builder()
      .appName("testings")
      .master("local")
      .config("configuration key", "configuration value")
      .getOrCreate 
  val sqlContext = spark.sqlContext
  val tdf2 = spark.read.option("delimiter", "|").option("header", true).csv("./tst.dat")
  tdf2.show()
}