spark-submit为Python程序工作,但pyspark不起作用

时间:2016-05-06 20:29:32

标签: pyspark

说明显而易见,我最近在UBUNTU(VMWARE工作站)上安装了SPARK。以下是我的PC规格。

Windows戴尔笔记本电脑(运行Windows 10)。

安装了VMWARE PRO 12并加载了Ubuntu 15。 使用标准脚本安装SPARK 1.6.1 / JAVA 1.7 / Python 2.7和SCALA 2.11.8。

我使用spark submit命令运行了一个示例程序,它完成得很好。但是当我尝试登录到pyspark shell时,我收到错误消息" pyspark:command not found"

似乎是什么问题。我可以看到spark的bin目录中的所有文件(包括pyspark和spark-submit)。

此致 VVSAUCSE

1 个答案:

答案 0 :(得分:0)

不确定这是否有效,命令名称的完整路径运行正常。对于早先不知情或尝试不知道道歉。

/ SparkPath / bin / pyspark工作正常,而不仅仅是pyspark