map减少烟雾测试时的错误

时间:2013-10-30 09:33:24

标签: hadoop mapreduce

我在windows上使用hartonworks msi在我的机器上配置了hadoop。当我运行run-somketest.cmd我得到以下错误

java.net.ConnectException: Call to DEV144/192.168.137.1:8020 failed on connection exception: java.net.ConnectException: Connection refused: no further information
    at org.apache.hadoop.ipc.Client.wrapException(Client.java:1147)
    at org.apache.hadoop.ipc.Client.call(Client.java:1123)
    at org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:229)
    at $Proxy2.getProtocolVersion(Unknown Source)
    at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
    at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39)
    at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)
    at java.lang.reflect.Method.invoke(Method.java:597)
    at org.apache.hadoop.io.retry.RetryInvocationHandler.invokeMethod(RetryInvocationHandler.java:85)
    at org.apache.hadoop.io.retry.RetryInvocationHandler.invoke(RetryInvocationHandler.java:62)
    at $Proxy2.getProtocolVersion(Unknown Source)
    at org.apache.hadoop.ipc.RPC.checkVersion(RPC.java:422)
    at org.apache.hadoop.hdfs.DFSClient.createNamenode(DFSClie

实际上出了什么问题以及如何过来

全部谢谢

1 个答案:

答案 0 :(得分:2)

我认为您需要检查core-site.xml文件以检查 fs.defaultFS 属性。这用于指定默认文件系统,默认为您的本地文件系统为什么需要将其设置为HDFS地址。这对于客户端配置也很重要,因此您的本地配置文件应包含此元素。

根据错误,我可以看到“DEV144 / 192.168.137.1:8020”。

fs.defaultFS - 当没有给出Hadoop FS客户端时使用的默认路径前缀

或者,您现在可以配置Hadoop客户端的默认路径以使用新的启用HA的逻辑URI。如果您之前使用“mycluster”作为名称服务ID,那么这将是所有HDFS路径的权限部分的值。这可以在您的core-site.xml文件中进行配置:

<property><name>fs.defaultFS</name><value>hdfs://mycluster</value></property>

点击此链接details of this property