说明显而易见,我最近在UBUNTU(VMWARE工作站)上安装了SPARK。以下是我的PC规格。
Windows戴尔笔记本电脑(运行Windows 10)。
安装了VMWARE PRO 12并加载了Ubuntu 15。 使用标准脚本安装SPARK 1.6.1 / JAVA 1.7 / Python 2.7和SCALA 2.11.8。
我使用spark submit命令运行了一个示例程序,它完成得很好。但是当我尝试登录到pyspark shell时,我收到错误消息" pyspark:command not found"
似乎是什么问题。我可以看到spark的bin目录中的所有文件(包括pyspark和spark-submit)。
此致 VVSAUCSE
答案 0 :(得分:0)
不确定这是否有效,命令名称的完整路径运行正常。对于早先不知情或尝试不知道道歉。
/ SparkPath / bin / pyspark工作正常,而不仅仅是pyspark