嗨我用start-all.sh
运行hadoop时无法解决我的问题rochdi @ 127:〜$ start-all.sh
/usr/local/hadoop/bin/hadoop-daemon.sh:line 62:[:localhost:integer 表达预期
启动namenode,登录到 的/ usr /本地/ hadoop的/的libexec /../日志/ Hadoop的rochdi-名称节点-127.0.0.1
localhost:/usr/local/hadoop/bin/hadoop-daemon.sh:line 62:[: localhost:期望的整数表达式
localhost:启动datanode,登录到 的/ usr /本地/ hadoop的/的libexec /../日志/ Hadoop的rochdi-数据节点-127.0.0.1
localhost:/usr/local/hadoop/bin/hadoop-daemon.sh:line 62:[: localhost:期望的整数表达式
localhost:启动secondarynamenode,登录到 的/ usr /本地/ hadoop的/的libexec /../日志/ Hadoop的rochdi-secondarynamenode-127.0.0.1
/usr/local/hadoop/bin/hadoop-daemon.sh:line 62:[:localhost:integer 表达预期
启动jobtracker,登录到 的/ usr /本地/ hadoop的/的libexec /../日志/ Hadoop的rochdi-的JobTracker-127.0.0.1
localhost:/usr/local/hadoop/bin/hadoop-daemon.sh:line 62:[: localhost:期望的整数表达式
localhost:启动tasktracker,登录到 的/ usr /本地/ hadoop的/的libexec /../日志/ Hadoop的rochdi-的TaskTracker-127.0.0.1
localhost:Erreur:不可能de trouver ou充电器la classe principale localhost
路径:
rochdi@127:~$ echo "$PATH"
/usr/lib/lightdm/lightdm:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/usr/local/hadoop/bin:/usr/local/hadoop/lib
在出现错误之前我将主机名文件更改为:
127.0.0.1 localhost
127.0.1.1 ubuntu.local ubuntu
我将我的bashrc文件配置为
导出HADOOP_PREFIX = / usr / local / hadoop
export PATH=$PATH:$HADOOP_PREFIX/bin export JAVA_HOME=/usr/lib/jvm/java-7-oracle
和jps命令
rochdi@127:~$ jps
3427 Jps
请帮助我
答案 0 :(得分:0)
我解决了这个问题我只是更改了我的主机名但是所有节点都启动但是当我停止它们时我有这样的消息:
rochdi@acer:~$ jps
4605 NameNode
5084 SecondaryNameNode
5171 JobTracker
5460 Jps
5410 TaskTracker
rochdi@acer:~$ stop-all.sh
stopping jobtracker
localhost: no tasktracker to stop
stopping namenode
localhost: no datanode to stop
localhost: stopping secondarynamenode
答案 1 :(得分:0)
提取hadoop tar文件后 打开〜/ bashrc 文件,并在文件末尾添加以下内容
export HADOOP_HOME=/usr/local/hadoop
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
export HADOOP_INSTALL=$HADOOP_HOME
然后,
编辑文件$ HADOOP_HOME / etc / hadoop / core-site.xml添加以下配置然后启动hadoop
<configuration>
<property>
<name>fs.default.name </name>
<value> hdfs://localhost:9000 </value>
</property>
</configuration>
使用此链接click here
仍然有问题答案 2 :(得分:0)
检查hosts文件和* -site.xml文件中的主机名。主机名未正确定义时会发生此错误。
答案 3 :(得分:0)
在core-site.xml中使用服务器IP地址而不是localhost,并检查etc / hosts和slaves文件中的条目。