start-all.sh:找不到命令。我该如何解决?

时间:2020-01-19 19:22:36

标签: hadoop

我尝试使用本教程link(在发生问题的地方加上了时间戳)对hadoop进行了安装

但是,在格式化namenode(hdfs namenode -format)之后,我没有在/ abc中得到“ name”文件夹。 同样,start-all.sh和其他/ sbin命令也不起作用。

PS,我确实尝试将hadoop安装为无法正常工作的单个节点,因此我尝试将其删除,将所有内容重做为双节点设置,所以我不得不重新格式化namenode ..我不知道这是否会以某种方式影响到这个。 >

编辑1:我修复了start-all.sh命令不起作用的原因,因为我纠正了.bashrc中的一个错误。 但是,在运行start-all.sh或start-dfs.sh等时,会收到这些错误消息。

hadoop @ linux-virtual-machine:〜$ start-dfs.sh 在[localhost]上启动namenodes 本地主机:mkdir:无法创建目录“ /usr/local/hadoop-2.10.0/logs”:权限被拒绝 本地主机:chown:无法访问“ /usr/local/hadoop-2.10.0/logs”:没有这样的文件或目录 本地主机:启动namenode,登录到/usr/local/hadoop-2.10.0/logs/hadoop-hadoop-namenode-linux-virtual-machine.out 本地主机:/usr/local/hadoop-2.10.0/sbin/hadoop-daemon.sh:第159行:/usr/local/hadoop-2.10.0/logs/hadoop-hadoop-namenode-linux-virtual-machine.out : 无此文件或目录 本地主机:头:无法打开“ /usr/local/hadoop-2.10.0/logs/hadoop-hadoop-namenode-linux-virtual-machine.out”以进行读取:没有这样的文件或目录 本地主机:/usr/local/hadoop-2.10.0/sbin/hadoop-daemon.sh:第177行:/usr/local/hadoop-2.10.0/logs/hadoop-hadoop-namenode-linux-virtual-machine.out : 无此文件或目录 本地主机:/usr/local/hadoop-2.10.0/sbin/hadoop-daemon.sh:第178行:/usr/local/hadoop-2.10.0/logs/hadoop-hadoop-namenode-linux-virtual-machine.out : 无此文件或目录 本地主机:mkdir:无法创建目录“ /usr/local/hadoop-2.10.0/logs”:权限被拒绝 本地主机:chown:无法访问“ /usr/local/hadoop-2.10.0/logs”:没有这样的文件或目录 本地主机:启动datanode,登录到/usr/local/hadoop-2.10.0/logs/hadoop-hadoop-datanode-linux-virtual-machine.out 本地主机:/usr/local/hadoop-2.10.0/sbin/hadoop-daemon.sh:第159行:/usr/local/hadoop-2.10.0/logs/hadoop-hadoop-datanode-linux-virtual-machine.out : 无此文件或目录 本地主机:头:无法打开“ /usr/local/hadoop-2.10.0/logs/hadoop-hadoop-datanode-linux-virtual-machine.out”以进行读取:没有这样的文件或目录 本地主机:/usr/local/hadoop-2.10.0/sbin/hadoop-daemon.sh:第177行:/usr/local/hadoop-2.10.0/logs/hadoop-hadoop-datanode-linux-virtual-machine.out : 无此文件或目录 本地主机:/usr/local/hadoop-2.10.0/sbin/hadoop-daemon.sh:第178行:/usr/local/hadoop-2.10.0/logs/hadoop-hadoop-datanode-linux-virtual-machine.out : 无此文件或目录 启动辅助名称节点[0.0.0.0] 无法建立主机“ 0.0.0.0(0.0.0.0)”的真实性。 ECDSA密钥指纹为SHA256:a37ThJJRRW + AlDso9xrOCBHzsFCY0 / OgYet7WczVbb0。 您确定要继续连接(是/否)吗?没有 0.0.0.0:主机密钥验证失败。

编辑2:修改了我更改hadoop文件夹权限的上述错误(在我的情况下,同时是hadoop-2.10.0和hadoop) start-all.sh可以正常运行,但namenode不会显示。

1 个答案:

答案 0 :(得分:0)

不清楚如何设置PATH变量。或脚本如何不起作用。您是否chmod +x使它们可执行?来自它们的任何日志输出吗?

start-all脚本可在您下载Hadoop的sbin目录中找到,因此真正需要的只是/path/to/sbin/start-all.sh

是的,名称节点需要在新的群集上格式化。使用官方Apache指南是最新的资源,并且对大多数用户都适用。

否则,建议您学习有关Apache Amabri的信息,它可以自动执行安装。或者只是使用Cloudera提供的Sandbox,或者如果您不希望完全“安装”它,请使用Hadoop已经存在的许多Docker容器。