如何将指令发送到pySpark shell?

时间:2016-07-26 14:47:35

标签: apache-spark pyspark

我想知道是否有办法从外部应用程序向Linux中正在运行的pyspark shell发送指令。

例如,假设我们有一些函数可以对DataFrames进行转换或操作,但我不想以正常方式运行它们(通过运行脚本或使用Notebook)。我想设置一些东西,以便有一个监听器终端,所以我可以提供指令和spark shell解释并运行请求。

0 个答案:

没有答案