我在Ubuntu服务器上安装了Hadoop 2.6.4,并且我使用SSH从我的Mac登录Ubuntu服务器,因为rsa密钥用于登录,所以我不必输入任何密码。但是当我运行start_dfs.sh来启动服务器时,我必须输入每个服务的密码,如下所示:
jianrui@cloudfoundry:~$ start-dfs.sh
Starting namenodes on [localhost]
Password:
localhost: starting namenode, logging to /home/jianrui/hadoop-2.6.4/logs/hadoop-dingjianrui-namenode-cloudfoundry.out
Password:
localhost: starting datanode, logging to /home/jianrui/hadoop-2.6.4/logs/hadoop-dingjianrui-datanode-cloudfoundry.out
Starting secondary namenodes [0.0.0.0]
Password:
0.0.0.0: starting secondarynamenode, logging to /home/jianrui/hadoop-2.6.4/logs/hadoop-dingjianrui-secondarynamenode-cloudfoundry.out
dingjianrui@cloudfoundry:~$
答案 0 :(得分:0)
我可以使用以下命令解决问题。
以下命令用于使用SSH生成密钥值对。将公钥表单id_rsa.pub复制到authorized_keys,并分别为ownerdkeys文件提供读写权限。
$ ssh-keygen -t rsa
$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
$ chmod 0600 ~/.ssh/authorized_keys
答案 1 :(得分:0)
如果你尝试了所有这些,你就不会成功。
请尝试以下。
$ ssh-keygen -t rsa -P""
$ ssh-copy-id -i~ / .ssh / id_rsa [id] @ [domain]
我使用的是Redhat7
如果您可以使用IP地址而不是域名。 和 您想轻松使用域名。 编辑/ etc / hosts文件。 离> 192.168.0.11 cluster01
问题是如何将密钥文件复制到另一台机器。 我很容易成功。