无法启动部署的spark作业服务器错误org.slf4j.LoggerFactory未找到

时间:2017-06-02 14:17:44

标签: apache-spark spark-jobserver

我正在尝试在CDH 5.11上使用spark作业服务器,Spark版本1.6.0 当我尝试在已部署的计算机上启动spark jobserver时,我收到此错误日志

JOptionPane.showMessageDialog(null,"About to look for CoC");
    //fileFrom = new File(s + "/out/production/XML Reader/CoC.xlsx");
    //fileFrom = new File("/XML Reader/out/production/XML Reader/CoC.xlsx");
    //fileFrom = new File("CoC.xlsx");
    //fileFrom = new File(ExcelWriter.class.getResource("CoC.xlsx").getPath());
    CodeSource src = ExcelWriter.class.getProtectionDomain().getCodeSource();
    /*if (src != null) {
        URL url = new URL(src.getLocation(), "CoC.xlsx");
        fileFrom = new File()
        System.out.println(url);
    } else {
        JOptionPane.showMessageDialog(null,"Failed");
    } */

    fileFrom = new File(new File("."), "CoC.xlsx");

是否有人面临同样的问题或提供一些帮助?

1 个答案:

答案 0 :(得分:0)

这里很少有东西!!

你是如何部署的? 问题似乎是某些SLF4J jar如何从SJS类路径中排除。它可能存在版本冲突。

并检查UI中的spark依赖项。 (并找到SLF4J !!)

你必须检查scala版本; spark版本和Spark-Job-Server版本如果它们有冲突!!!

在您的情况下,对于spark版本1.6.0;选定的scala版本应为2.10.4。 (不是任何其他版本,如2.11或2.12)