我已经部署了一个由Apache Spark引导的3节点AWS ElasticMapReduce集群。在本地计算机上,我可以通过SSH访问主节点:
ssh -i <key> hadoop@ec2-xx-xxx-xxx-xxx.compute-1.amazonaws.com
一旦ssh进入主节点,我就可以通过pyspark
访问 PySpark 。
此外,(虽然不安全)我已将主节点的安全组配置为接受来自本地计算机IP地址的TCP流量,特别是在端口7077
上。
但是,我仍然无法将本地 PySpark实例连接到我的群集:
MASTER=spark://ec2-master-node-public-address:7077 ./bin/pyspark
上述命令会导致许多异常,并导致PySpark无法初始化SparkContext对象。
有谁知道如何成功创建一个远程连接,就像我上面描述的那样?
答案 0 :(得分:2)
除非您的本地计算机是群集的主节点,否则您无法执行此操作。您将无法使用AWS EMR执行此操作。