我在我的虚拟机上安装了apache hadoop,并将其配置为以伪分布式模式运行。除了一件事,一切似乎都很好。我可以在虚拟机中使用hadoop命令行列出文件并创建文件夹。
当我打开
http://192.168.20.200:50070 (virtual machine IP)
从我的非虚拟PC,我可以看到一些NameNode信息并链接“浏览文件系统”。此链接具有以下URL:
http://192.168.20.200:50070/nn_browsedfscontent.jsp
当我点击它时,我被重定向到
http://localhost:50075/browseDirectory.jsp?namenodeInfoPort=50070&dir=/
如果我将“localhost”替换为“192.168.20.200”,一切正常。
芯sites.xml
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost/</value>
<description>...</description>
</property>
</configuration>
HDFS-site.xml中
<property>
<name>dfs.replication</name>
<value>1</value>
<description>Default block replication.</description>
</property>
<property>
<name>dfs.name.dir</name>
<value>/app/hadoopstorage/name/</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/app/hadoopstorage/data/</value>
</property>
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
有人知道如何解决这个问题吗?
答案 0 :(得分:1)
当我的/ etc / hosts文件像这样
时,一切似乎都有效127.0.0.1 localhost
127.0.1.1 name1
192.168.20.200 192.168.20.200 <--- added this line
但它看起来很奇怪。这样做是对的吗?
答案 1 :(得分:0)
在Hadoop生态系统中,如果在错误的IP地址上的HOSTS文件中指定127.0.0.1 (localhost)
,则获取并报告环回适配器地址HOSTNAME
是常见的。
如果您使用/etc/hosts
文件进行此路线,请确保只有&#39; localhost&#39;或者&#39; localhost.localdomain&#39;存在于::1
或127.0.0.1
行。