我尝试通过此视频的指导安装Apache Spark:https://www.youtube.com/watch?v=KvQto_b3sqw
但是,我收到了视频未显示的所有这些错误(附在截图中):
Error Screenshot Part 1
Error Screenshot Part 2
我想知道我是否成功安装了Apache Spark?我该怎么做才能确保成功安装Apache Spark?
非常感谢你!
答案 0 :(得分:2)
为了安装spark,你应该安装Java和Scala
从
下载Scalahttps://www.scala-lang.org/download/
解压文件
sudo tar -zxvf tar文件名
在/ etc / environment
中设置Scala路径保存并退出
来源/ etc / environment
第1步:转到您想要下载的本地路径地址 tar文件从
下载Spark http://archive.apache.org/dist/spark/spark-2.0.2/spark-2.0.2-bin-
hadoop2.7.tgz
步骤2:使用以下命令解压缩文件:sudo tar -zxvf tar文件名
第3步: 在sudo nano / etc / environment中设置环境路径
/usr/local/packages/spark/bin:/usr/local/packages/spark/sbin"
SPARK_HOME="/usr/local/packages/spark"
SPARK_CONF_DIR="/usr/local/packages/spark/conf"
使用命令:
ctrl x
ý
输入
save and exit from /etc/environment
步骤4:通过终端提供源命令:source / etc / environment
步骤5:从
下载MySQL连接器java文件 http://central.maven.org/maven2/mysql/mysql-connector-java/5.1.35/mysql-connector-java-5.1.35.jar
第6步:将文件移动到/ usr / local / packages / spark / jars
第7步:转到conf目录 将spark-env.sh.template更改为spark-env.sh
mv spark-env.sh.template spark-env.sh
步骤8:打开spark-env.sh文件并更改文件中的修改
sudo nano spark-env.sh
导出JAVA_HOME =“$ JAVA_HOME”
导出SPARK_LOCAL_IP = 127.0.1.1
导出SPARK_MASTER_WEBUI_PORT = 8088
导出SPARK_HOME =“/ usr / local / packages / spark”
export SPARK_CLASSPATH =“/ usr / local / packages / spark / jars / mysql-connector-Java-5.1.35.bin.Jar”
(确保您是否在没有Hadoop的情况下安装Spark,然后按照spark-env.sh文件中的上述配置进行操作)
(使用Hadoop,你应该添加 export HADOOP_CONF_DIR =“/ usr / local / packages / hadop / etc / hadoop”)
步骤9:现在转到spark中的sbin路径使用命令:start-all.sh
它绝对有效。感谢答案 1 :(得分:0)
我们的安装有问题。 如何安装:
spark-shell应该运行没有错误。