Apache Spark安装出错

时间:2016-06-03 03:49:15

标签: apache-spark

我尝试通过此视频的指导安装Apache Spark:https://www.youtube.com/watch?v=KvQto_b3sqw

但是,我收到了视频未显示的所有这些错误(附在截图中):

Error Screenshot Part 1
Error Screenshot Part 2

我想知道我是否成功安装了Apache Spark?我该怎么做才能确保成功安装Apache Spark?

非常感谢你!

2 个答案:

答案 0 :(得分:2)

为了安装spark,你应该安装Java和Scala

下载Scala

https://www.scala-lang.org/download/

解压文件

sudo tar -zxvf tar文件名

在/ etc / environment

中设置Scala路径

保存并退出

来源/ etc / environment

第1步:转到您想要下载的本地路径地址         tar文件从

下载Spark
    http://archive.apache.org/dist/spark/spark-2.0.2/spark-2.0.2-bin-
    hadoop2.7.tgz

步骤2:使用以下命令解压缩文件:sudo tar -zxvf tar文件名

第3步:         在sudo nano / etc / environment中设置环境路径

    /usr/local/packages/spark/bin:/usr/local/packages/spark/sbin"

    SPARK_HOME="/usr/local/packages/spark"
    SPARK_CONF_DIR="/usr/local/packages/spark/conf"

使用命令:

  1. ctrl x

  2. ý

  3. 输入

    save and exit from /etc/environment
    
  4. 步骤4:通过终端提供源命令:source / etc / environment

    步骤5:从

    下载MySQL连接器java文件
        http://central.maven.org/maven2/mysql/mysql-connector-java/5.1.35/mysql-connector-java-5.1.35.jar
    

    第6步:将文件移动到/ usr / local / packages / spark / jars

    第7步:转到conf目录         将spark-env.sh.template更改为spark-env.sh

        mv spark-env.sh.template spark-env.sh
    

    步骤8:打开spark-env.sh文件并更改文件中的修改

        sudo nano spark-env.sh
    

    导出JAVA_HOME =“$ JAVA_HOME”

    导出SPARK_LOCAL_IP = 127.0.1.1

    导出SPARK_MASTER_WEBUI_PORT = 8088

    导出SPARK_HOME =“/ usr / local / packages / spark”

    export SPARK_CLASSPATH =“/ usr / local / packages / spark / jars / mysql-connector-Java-5.1.35.bin.Jar”

    (确保您是否在没有Hadoop的情况下安装Spark,然后按照spark-env.sh文件中的上述配置进行操作)

    (使用Hadoop,你应该添加 export HADOOP_CONF_DIR =“/ usr / local / packages / hadop / etc / hadoop”)

    步骤9:现在转到spark中的sbin路径使用命令:start-all.sh

    它绝对有效。感谢

答案 1 :(得分:0)

我们的安装有问题。 如何安装:

  1. http://spark.apache.org/downloads.html
  2. 下载spark
  3. 解压文件
  4. 在SPARK_HOME / bin目录中运行spark-shell脚本
  5. spark-shell应该运行没有错误。