使用Spark Shell时指定Spark环境API的选项

时间:2015-05-04 15:53:52

标签: apache-spark

是否有一个选项可以传递给spark-shell,指定您将运行代码的环境?换句话说,如果我使用Spark 1.3;我可以指定我希望使用Spark 1.2 API吗?

例如:

  

pyspark --api 1.2

1 个答案:

答案 0 :(得分:2)

spark-shell初始化org.apache.spark.repl.Main以启动REPL,它不解析任何命令行参数。因此,不能从命令行传递api值,您已经使用各自版本的spark中的相应spark-shell二进制文件。