我正在尝试使用this教程
在ubuntu上安装hadoop我更改了所有配置文件并尝试了互联网上提供的所有解决方案。
我运行start-all.sh
时没有收到任何错误,但是当我使用jps检查进程时,我得到了: - >
3132 Jps
2742 SecondaryNameNode
2830 JobTracker
当我使用stop-all.sh
时,我得到: - >
stopping jobtracker
localhost: no tasktracker to stop
no namenode to stop
localhost: no datanode to stop
localhost: stopping secondarynamenode
这是我的jobtracker日志请帮帮我:
Problem connecting to HDFS Namenode... re-trying
java.net.ConnectException: Call to localhost/127.0.0.1:54310 failed on connection exception: java.net.ConnectException: Connection refused
at org.apache.hadoop.ipc.Client.wrapException(Client.java:1142)
at org.apache.hadoop.ipc.Client.call(Client.java:1118)
at org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:229)
at com.sun.proxy.$Proxy7.getProtocolVersion(Unknown Source)
at sun.reflect.GeneratedMethodAccessor2.invoke(Unknown Source)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:606)
at org.apache.hadoop.io.retry.RetryInvocationHandler.invokeMethod(RetryInvocationHandler.java:85)
答案 0 :(得分:0)
检查您的core-site.xml文件,看看您是否更新了hdfstmp文件夹的路径。如果您已从Internet复制并粘贴配置且未能配置路径,则会出现此错误。尝试这样的事情:
<property>
<name>hadoop.tmp.dir</name>
<value>/home/user/hdfstmp</value>
</property>
此处hdfstmp是默认文件系统的文件夹名称。
正确设置core-site.xml文件中的临时目录后,我建议
bin/stop-all.sh
hadoop/bin namenode -format
bin/start-all.sh
答案 1 :(得分:0)
您必须是包含namenode和datanode的目录的所有者。
答案 2 :(得分:0)
请检查为fs.defaultFS属性配置的端口。在我的情况下,我给了已经在使用的端口。因此namenode没有开始。更改端口后,我可以启动名称节点
答案 3 :(得分:0)
1)使用“kill -9 processid”
2)start-all.sh
3)stop-al.sh验证停止节点是否按预期工作。