使用Spark配置Apache Zeppelin

时间:2016-08-10 10:23:23

标签: linux ubuntu apache-spark apache-zeppelin

我一直在尝试使用Spark 2.0配置Apache Zeppeling。我设法在Linux操作系统上安装它们,我在8080端口上设置了火花,而在8082端口号上设置了zeppelin服务器。

在zeppelin的zeppelin-env.sh文件中,我将SPARK_HOME变量设置为Spark文件夹的位置。

然而,当我尝试创建一个新节点时,没有任何正确的编译。从我看来,我没有配置解释器,因为主页选项卡中缺少解释器选项卡。

非常感谢任何帮助。

enter image description here

编辑:E.I。当我尝试运行zeppelin教程时,将数据加载到表格中'过程我收到以下错误:

  

抛出java.lang.ClassNotFoundException:   org.apache.spark.repl.SparkCommandLine at   java.net.URLClassLoader.findClass(URLClassLoader.java:381)at   java.lang.ClassLoader.loadClass(ClassLoader.java:424)at   sun.misc.Launcher $ AppClassLoader.loadClass(Launcher.java:331)at at   java.lang.ClassLoader.loadClass(ClassLoader.java:357)at   org.apache.zeppelin.spark.SparkInterpreter.open(SparkInterpreter.java:400)     在   org.apache.zeppelin.interpreter.LazyOpenInterpreter.open(LazyOpenInterpreter.java:69)     在   org.apache.zeppelin.interpreter.LazyOpenInterpreter.interpret(LazyOpenInterpreter.java:93)     在   org.apache.zeppelin.interpreter.remote.RemoteInterpreterServer $ InterpretJob.jobRun(RemoteInterpreterServer.java:341)     在org.apache.zeppelin.scheduler.Job.run(Job.java:176)at   org.apache.zeppelin.scheduler.FIFOScheduler $ 1.run(FIFOScheduler.java:139)     在   java.util.concurrent.Executors $ RunnableAdapter.call(Executors.java:511)     在java.util.concurrent.FutureTask.run(FutureTask.java:266)at   java.util.concurrent.ScheduledThreadPoolExecutor中的$ ScheduledFutureTask.access $ 201(ScheduledThreadPoolExecutor.java:180)     在   java.util.concurrent.ScheduledThreadPoolExecutor中的$ ScheduledFutureTask.run(ScheduledThreadPoolExecutor.java:293)     在   java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142)     在   java.util.concurrent.ThreadPoolExecutor中的$ Worker.run(ThreadPoolExecutor.java:617)     在java.lang.Thread.run(Thread.java:745)

1 个答案:

答案 0 :(得分:1)

我不认为可以在没有构建的情况下使用spark 2.0 来源,因为这个版本发生了一些相对较大的变化。

您可以使用github https://github.com/apache/zeppelin自述文件中提到的spark 2.0配置文件克隆zeppelin git repo并进行构建。

我已经尝试过它并且有效。