所以,正如你可以看到here,我在安装配置单元时遇到了麻烦。 (信息:Ubuntu 16.04,Java 8,Hadoop 2.7.2,Spark 1.6.2,Hive 2.0.1)
我已经解决了一些错误,但现在当我在CLI中尝试hive
时,我遇到以下错误:
线程“main”中的异常java.lang.RuntimeException:java.net.ConnectException:调用从fma-VirtualBox / 127.0.1.1到localhost:54310在连接异常时失败:java.net.ConnectException:Connexionrefusée;有关详细信息,请参阅:http://wiki.apache.org/hadoop/ConnectionRefused
我去链接到Apache Wiki,如果我理解得很好,我认为我的问题的原因在这部分解释:
引用:
如果错误消息显示远程服务位于“127.0.0.1”或“localhost”,则表示配置文件告诉客户端该服务位于本地服务器上。如果您的客户端正在尝试与远程系统通信,那么您的配置就会中断。
- 醇>
检查在/ etc / hosts中是否没有映射到127.0.0.1或127.0.1.1的主机名条目(Ubuntu因此而臭名昭着。)
所以我做了cat /etc/hosts
,我得到了:
127.0.0.1 localhost
127.0.1.1 fma-VirtualBox
# The following lines are desirable for IPv6 capable hosts
::1 ip6-localhost ip6-loopback
fe00::0 ip6-localnet
ff00::0 ip6-mcastprefix
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters
所以我认为我有效地发现了这个问题。但是,我不确定如何解决它。我应该删除etc/hosts
的前两行吗?或者将它们编辑成其他东西?或者我认为我发现了问题我错了吗?
感谢。