如何正确启动工人

时间:2019-01-15 06:15:36

标签: apache-spark hadoop

启动Spark集群时遇到一些问题。

我有一个主人和三个奴隶。我可以使用命令start-all.sh在映像中运行以下进程,并使用命令start-master.sh手动运行主服务器,如下所示:

enter image description here

我的问题是无法启动工作进程。

我尝试了命令start-slave.sh,它显示了这一点:

enter image description here

和工作日志文件显示为相同的内容。

这是spark-env.sh:

spark-env.sh

这是奴隶:

slaves

我真的很想知道为什么无法开始工作以及我能做什么。谢谢,如果有人知道。

0 个答案:

没有答案