hadoop eclipse插件构建/配置

时间:2012-11-20 06:06:46

标签: hadoop bigdata hadoop-plugins

我已经能够在linux环境中配置和启动hdfs(apache hadoop)。我尝试了各种方法使用HADOOP ECLIPSE PLUGIN为hadoop设置eclipse环境。只有通过eclipse识别的插件jar才会出现1280 jira的问题,其他方法甚至都无法识别,就像从hadoop src构建eclipse插件一样。来自1280链接的修补jar说“无法连接到127.0.0.1:3515 EOFException”。许多博客/论坛说不同的方法来修补hadoop,使用各种工具构建等等。 是不是有一个稳定的hadoop项目来配置eclipse所以开发人员可以快速获取环境并处理各种示例?我不想使用Cloudera VM,因为它使我不能以正常方式理解hadoop,而安装是一个包含大文件的过程。请有人帮助我以稳定的方式获得hadoop环境。

由于 琳

3 个答案:

答案 0 :(得分:0)

您是否成功安装了Hadoop?在我的0.20.2 Hadoop设置中,以下步骤用于获取正常运行的Eclipse插件(在我通过命令行安装Hadoop之后):

  1. 设置Eclipse,复制插件并重启; u se the patched plugin(将hadoop-eclipse-plugin-0.20.3-SNAPSHOT.jar添加到本地Eclipse / plugins文件夹中)。
  2. 切换到Map / Reduce透视图。如果未显示“地图/缩小位置”选项卡,请转到“窗口” - >“显示视图” - >“其他”以激活它。确保知道hdfs的正确端口(可以在Hadoop设置中的core-site.xml中找到),mapreduce作业(可以在mapred-site.xml中找到)正在运行。
  3. Eclipse插件中的“DfS Locations”需要手动刷新才能看到刚添加的新数据,因此如果右键单击并将文件上传到HDFS,请务必刷新
  4. 要在Eclipse中创建新的Hadoop项目,请转到新项目 - >地图/减少项目

答案 1 :(得分:0)

@Claudia除了设置新的hadoop位置时的这么多设置,还有其他任何与更改高级参数相关的内容吗?在常规选项卡中,端口是正确的,但我仍然得到例外 - 错误:在连接异常时调用localhost / 127.0.0.1:9000失败:java.net.ConnectException:连接被拒绝 主节点与安装eclipse的节点相同。

答案 2 :(得分:0)

关于ConnectException,如果其他所有内容都按照Claudia的指示完成,如果你仍然在DFS位置得到这个异常,那意味着你使用的插件与hadoop版本或eclipse版本不兼容你正在使用(通常是后者)。 在这种情况下,请参考here以编译您正在使用的eclipse版本的新插件。