我已经能够在linux环境中配置和启动hdfs(apache hadoop)。我尝试了各种方法使用HADOOP ECLIPSE PLUGIN为hadoop设置eclipse环境。只有通过eclipse识别的插件jar才会出现1280 jira的问题,其他方法甚至都无法识别,就像从hadoop src构建eclipse插件一样。来自1280链接的修补jar说“无法连接到127.0.0.1:3515 EOFException”。许多博客/论坛说不同的方法来修补hadoop,使用各种工具构建等等。 是不是有一个稳定的hadoop项目来配置eclipse所以开发人员可以快速获取环境并处理各种示例?我不想使用Cloudera VM,因为它使我不能以正常方式理解hadoop,而安装是一个包含大文件的过程。请有人帮助我以稳定的方式获得hadoop环境。
由于 琳
答案 0 :(得分:0)
您是否成功安装了Hadoop?在我的0.20.2 Hadoop设置中,以下步骤用于获取正常运行的Eclipse插件(在我通过命令行安装Hadoop之后):
答案 1 :(得分:0)
@Claudia除了设置新的hadoop位置时的这么多设置,还有其他任何与更改高级参数相关的内容吗?在常规选项卡中,端口是正确的,但我仍然得到例外 - 错误:在连接异常时调用localhost / 127.0.0.1:9000失败:java.net.ConnectException:连接被拒绝 主节点与安装eclipse的节点相同。
答案 2 :(得分:0)
关于ConnectException,如果其他所有内容都按照Claudia的指示完成,如果你仍然在DFS位置得到这个异常,那意味着你使用的插件与hadoop版本或eclipse版本不兼容你正在使用(通常是后者)。 在这种情况下,请参考here以编译您正在使用的eclipse版本的新插件。