安装和配置中的hadoop问题

时间:2015-07-27 02:53:58

标签: hadoop

当我尝试启动start-dfs.sh时安装hadoop后,它显示以下错误消息。

我搜索了很多,发现WARN是因为我正在使用 UBUNTU 64位操作系统和hadoop是针对32位编译的。 所以这不是一个问题。

但不正确的配置是我担心的。并且还无法启动主要和次要名称节点。

sameer@sameer-Compaq-610:~$ start-dfs.sh
15/07/27 07:47:41 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Incorrect configuration: namenode address dfs.namenode.servicerpc-address or dfs.namenode.rpc-address is not configured.
Starting namenodes on []
localhost: ssh: connect to host localhost port 22: Connection refused
localhost: ssh: connect to host localhost port 22: Connection refused
Starting secondary namenodes [0.0.0.0]
0.0.0.0: ssh: connect to host 0.0.0.0 port 22: Connection refused**
15/07/27 07:47:56 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable

我目前的配置:     HDFS-site.xml中

<configuration>

 <property>
   <name>dfs.replication</name>
   <value>1</value>
 </property>
 <property>
   <name>dfs.namenode.name.dir</name>
   <value>file:/home/sameer/mydata/hdfs/namenode</value>
 </property>
 <property>
   <name>dfs.datanode.data.dir</name>
   <value>file:/home/sameer/mydata/hdfs/datanode</value>
 </property>

</configuration>

core-site.xml
<configuration>
   <property>
      <name>fs.default.name </name>
      <value> hdfs://localhost:9000 </value> 
   </property>
</configuration>

yarn-site.xml
<configuration>

<!-- Site specific YARN configuration properties -->
   <property>
      <name>yarn.nodemanager.aux-services</name>
      <value>mapreduce_shuffle</value> 
   </property>
   <property>
      <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
      <value>org.apache.hadoop.mapred.ShuffleHandler</value>
   </property>
</configuration>

mapred-site.xml

<configuration>
   <property> 
      <name>mapreduce.framework.name</name>
      <value>yarn</value>
   </property>
</configuration>

请在配置或其他地方找到我的错误。?

谢谢, 萨姆

2 个答案:

答案 0 :(得分:1)

一个问题是core-site.xml配置中的空间。删除fs.default.name属性中的前导和尾随空格。

<configuration>
   <property>
      <name>fs.default.name</name>
      <value>hdfs://localhost:9000</value> 
   </property>
</configuration>

另一个问题是ssh服务未在您的计算机上运行。这不是必要的服务。 start-all.sh,stop-all.sh,start-dfs.sh等脚本需要ssh。最好安装它。您可以使用以下命令安装和启动open-ssh服务器。

sudo apt-get install openssh-server
sudo /etc/init.d/ssh restart

然后检查服务是否正在运行。如果它正在运行,则以下命令返回一些结果。

netstat -tulpn | grep 22

使用 hadoop-daemon.sh start [daemon-name]

启动hadoop的替代方法是使用 hadoop-daemon.sh start

答案 1 :(得分:0)

也许您需要安装openssh服务器。希望这个链接有所帮助:

https://sites.google.com/site/randomt3ch/home/connect-to-host-localhost-port-22-connection-refused