我正在尝试安装spark,以便我可以在我的ipython笔记本中使用spark来遵循这里的指南: https://beingzy.github.io/tutorial/2014/10/13/spark-tutorial-Part-I-setting-up-spark-and-ipython-notebook-within-10-minutes.html
所以我下载了spark,最新版本1.5.2并运行“build spark”部分。这是我得到的错误信息:
C:\Users\Administrator\Downloads\spark-1.5.2\sbt>sbt assembly
[info] Set current project to sbt (in build file:/C:/Users/Administrator/Downloa
ds/spark-1.4.0/sbt/)
[error] Not a valid command: assembly
[error] Not a valid project ID: assembly
[error] Expected ':' (if selecting a configuration)
[error] Not a valid key: assembly
[error] assembly
[error] ^
我在stakoverflow上遇到过类似的问题。但是,最初的问题是在Ubuntu上,而我的是在Windows上。另外,我没有按照答案中的建议使用spark-0.8.1孵化文件夹,因此该解决方案对我无效。
"./sbt/sbt assembly" errors "Not a valid command: assembly" for Apache Spark project
请帮助!
答案 0 :(得分:0)
原因是你在sbt assembly
目录中执行sbt
不是 Spark的sbt构建主目录(在你的情况下是C:\Users\Administrator\Downloads\spark-1.5.2
)。
向上移动一个目录,即C:\Users\Administrator\Downloads\spark-1.5.2
,然后执行./sbt/sbt assembly
。