我有以下情况:
/user/lib/spark
)和HADOOP_CONF_DIR
(在/etc/hadoop/conf
中)从EMR群集的主节点复制到我公司的服务器,但Spark无法识别YARN。 感谢。
编辑:将“驱动程序”更改为主题行和正文中的“客户”。
答案 0 :(得分:1)
这可以在独立模式下进行,但不能在纱线模式下进行。
当在纱线模式下运行火花时,它无法控制执行者,AM和司机将坐在哪里。
Yarn检查每个任务节点上的内存使用情况和数据可用性,并将这些组件旋转到理想的位置。
因此,即使您设法将外部节点添加到纱线(显然可以这样做),只需设置正确的配置并在yarn的资源管理器上运行admin refresh。 但是,还有,你无法确定你的火花司机将在哪里运行。
<强>更新强> 这样做是完全可能的。以下是您需要做的事情。
Livy服务器将在本地系统或外部节点可以与之通信的开放端口上的AWS中。 Hue或Zappelin可以在您的外部节点上。