标签: scala shell apache-spark
我刚刚从spark 1.3.1更新为spark 1.6.1。
在早期版本中,我能够使用./bin/spark-shell在scala中启动spark交互式shell。在较新的版本中,我收到错误消息“错误:必须指定主资源(JAR或Python文件)”。
我知道它需要一个jar文件,但有没有办法只启动shell而不是创建这些jar文件? (例如,玩游戏,看看给定的语法是否有效?)