端口8020拒绝hadoop连接

时间:2018-03-29 05:43:32

标签: linux hadoop service hive

Hadoop,hive,hdfs,spark在我的namenode上正常运行,并且能够连接到datanode。但由于某种原因,服务器已关闭,现在当我尝试通过 hadoop fs -ls / 等命令访问hadoop文件系统时,或者当我尝试访问 hive 时,连接是拒绝8020号港口。

我可以看到cloudera-scm-server和cloudera-scm-agent服务正常运行。我试图检查hiveserver2,hivemetastore,hadoop-hdfs等服务的状态,但服务状态命令会给出错误消息,指出这些服务不存在。 此外,我试图寻找start-all.sh但无法找到它。我运行了 find / -name start-all.sh 命令,只有cloudera parcel目录中的start-all.sh路径出现了火花。

我检查了/ var / log目录中的日志,对于hiveserver2,很明显该服务已关闭..其他日志不是很清楚,但我猜测服务器断电后所有服务都关闭了。

请告知如何重新启动整个系统。我无法访问cloudera manager或ambari或网页上的任何内容。这些页面也已关闭,我不确定我是否可以访问这些页面因为我以前从未尝试过,我只是在使用linux命令行。

0 个答案:

没有答案