标签: apache-spark hadoop
启动Spark集群时遇到一些问题。
我有一个主人和三个奴隶。我可以使用命令start-all.sh在映像中运行以下进程,并使用命令start-master.sh手动运行主服务器,如下所示:
start-all.sh
start-master.sh
我的问题是无法启动工作进程。
我尝试了命令start-slave.sh,它显示了这一点:
start-slave.sh
和工作日志文件显示为相同的内容。
这是spark-env.sh:
这是奴隶:
我真的很想知道为什么无法开始工作以及我能做什么。谢谢,如果有人知道。