我已将spark,sbt,scala和git下载到我的Windows计算机上。当我尝试在命令提示符下运行spark-shell时,我得到了#34;无法找到Spark程序集JAR。在运行此程序之前,您需要使用sbt \ sbt程序集构建Spark。"
我尝试按照此指南操作:https://x86x64.wordpress.com/2015/04/29/installing-spark-on-windows/,但我没有构建子文件夹,所以我不确定这是不是问题。
任何帮助都将不胜感激。
答案 0 :(得分:0)
这是火花1.3的旧指南。
请使用本指南在Windows上设置spark。
http://www.ics.uci.edu/~shantas/Install_Spark_on_Windows10.pdf
本指南使用Maven,您将使用sbt但是您仍然可以使用本指南执行spark-shell。