启动hadoop时会出现hadoop错误

时间:2013-12-05 18:34:59

标签: hadoop

嗨我用start-all.sh

运行hadoop时无法解决我的问题
  

rochdi @ 127:〜$ start-all.sh

     

/usr/local/hadoop/bin/hadoop-daemon.sh:line 62:[:localhost:integer   表达预期

     

启动namenode,登录到   的/ usr /本地/ hadoop的/的libexec /../日志/ Hadoop的rochdi-名称节点-127.0.0.1

     

localhost:/usr/local/hadoop/bin/hadoop-daemon.sh:line 62:[:   localhost:期望的整数表达式

     

localhost:启动datanode,登录到   的/ usr /本地/ hadoop的/的libexec /../日志/ Hadoop的rochdi-数据节点-127.0.0.1

     

localhost:/usr/local/hadoop/bin/hadoop-daemon.sh:line 62:[:   localhost:期望的整数表达式

     

localhost:启动secondarynamenode,登录到   的/ usr /本地/ hadoop的/的libexec /../日志/ Hadoop的rochdi-secondarynamenode-127.0.0.1

     

/usr/local/hadoop/bin/hadoop-daemon.sh:line 62:[:localhost:integer   表达预期

     

启动jobtracker,登录到   的/ usr /本地/ hadoop的/的libexec /../日志/ Hadoop的rochdi-的JobTracker-127.0.0.1

     

localhost:/usr/local/hadoop/bin/hadoop-daemon.sh:line 62:[:   localhost:期望的整数表达式

     

localhost:启动tasktracker,登录到   的/ usr /本地/ hadoop的/的libexec /../日志/ Hadoop的rochdi-的TaskTracker-127.0.0.1

     

localhost:Erreur:不可能de trouver ou充电器la classe   principale localhost

路径:

rochdi@127:~$ echo "$PATH"
/usr/lib/lightdm/lightdm:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/usr/local/hadoop/bin:/usr/local/hadoop/lib
在出现错误之前

我将主机名文件更改为:

127.0.0.1 localhost
127.0.1.1 ubuntu.local ubuntu

我将我的bashrc文件配置为

  

导出HADOOP_PREFIX = / usr / local / hadoop

export PATH=$PATH:$HADOOP_PREFIX/bin

export JAVA_HOME=/usr/lib/jvm/java-7-oracle

和jps命令

  rochdi@127:~$ jps
     3427 Jps
请帮助我

4 个答案:

答案 0 :(得分:0)

我解决了这个问题我只是更改了我的主机名但是所有节点都启动但是当我停止它们时我有这样的消息:

rochdi@acer:~$ jps
4605 NameNode
5084 SecondaryNameNode
5171 JobTracker
5460 Jps
5410 TaskTracker
rochdi@acer:~$ stop-all.sh 
stopping jobtracker
localhost: no tasktracker to stop
stopping namenode
localhost: no datanode to stop
localhost: stopping secondarynamenode

答案 1 :(得分:0)

提取hadoop tar文件后 打开〜/ bashrc 文件,并在文件末尾添加以下内容

export HADOOP_HOME=/usr/local/hadoop 
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native 
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin 
export HADOOP_INSTALL=$HADOOP_HOME 

然后,

编辑文件$ HADOOP_HOME / etc / hadoop / core-site.xml添加以下配置然后启动hadoop

<configuration>

   <property>
      <name>fs.default.name </name>
      <value> hdfs://localhost:9000 </value> 
   </property>

</configuration>

使用此链接click here

仍然有问题

答案 2 :(得分:0)

检查hosts文件和* -site.xml文件中的主机名。主机名未正确定义时会发生此错误。

答案 3 :(得分:0)

在core-site.xml中使用服务器IP地址而不是localhost,并检查etc / hosts和slaves文件中的条目。